diff --git a/content/es/account_management/billing/usage_attribution.md b/content/es/account_management/billing/usage_attribution.md index 54c0e9ed743bc..d8c5445ff555e 100644 --- a/content/es/account_management/billing/usage_attribution.md +++ b/content/es/account_management/billing/usage_attribution.md @@ -15,19 +15,19 @@ title: Atribución de uso ## Información general -
-La atribución de uso es una función avanzada del plan Enterprise. Si quieres usarla en otros planes, ponte en contacto con la persona encargada de tu cuenta o escribe a success@datadoghq.com para solicitarla. +
L +Atribución de uso es una prestación incluida en el plan empresarial. Si quieres usarla en otros planes, ponte en contacto con la persona encargada de tu cuenta o escribe a success@datadoghq.com para solicitarla.
Los administradores o usuarios con permiso de Lectura de uso pueden acceder a la Atribución de uso pestaña desde la sección Plan y uso en Datadog. La página de Atribución de uso proporciona la siguiente información y funcionalidad: -- Acceder a listas del reparto de uso en función de las diferentes claves de etiquetas, y añadir o modificar claves nuevas (hasta un máximo de tres). +- Consultar una lista del reparto de uso en función de las diferentes claves de etiquetas y añadir o modificar claves nuevas (hasta un máximo de tres). - Resume el uso al final de cada mes y visualiza el uso a lo largo del tiempo desglosado por etiquetas (tags). - Genera archivos CSV del mes hasta la fecha y por horas. Esta función no es compatible con el uso de productos que no se pueden etiquetar durante la instrumentación. Por ejemplo, Usuarios de gestión de incidencias, Usuarios de pruebas y CI Pipeline, Espacio de pruebas paralelas y Audit Trail. -## Primeros pasos +## Empezando Para empezar a recibir datos diarios, el administrador debe elegir etiquetas para el informe. @@ -104,7 +104,7 @@ Para los clientes de facturación directa, los informes de atribución de costes {{< img src="account_management/billing/usage_attribution/Cost-Attribution-Monthly.png" alt="Informe de Atribución de costes" style="width:100%;" >}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/account_management/saml/mobile-idp-login.md b/content/es/account_management/saml/mobile-idp-login.md index eb05016987afd..55c42dc30ac89 100644 --- a/content/es/account_management/saml/mobile-idp-login.md +++ b/content/es/account_management/saml/mobile-idp-login.md @@ -33,7 +33,7 @@ Para utilizar la aplicación móvil Datadog con SAML iniciado por el proveedor d Cuando configures tu aplicación OneLogin, establece el valor del estado de retransmisión en la página **Application Details** (Detalles de la aplicación) en `dd_m_idp`. {{< img src="account_management/saml/one-login-mobile-idp-relay-state.png" alt="Página de detalles de la aplicación de One Login" >}} -### Okta +### Audit Trail (trazas de auditoría) Cuando configures tu aplicación Okta, establece el valor por defecto de RelayState en la página **Configure SAML** (Configurar SAML) en `dd_m_idp`. {{< img src="account_management/saml/okta-mobile-idp-relay-state.png" alt="Página de configuración de SAML de Okta" >}} diff --git a/content/es/account_management/saml/okta.md b/content/es/account_management/saml/okta.md index bcd7252753e49..80e267b059167 100644 --- a/content/es/account_management/saml/okta.md +++ b/content/es/account_management/saml/okta.md @@ -30,7 +30,7 @@ Sigue las instrucciones de Okta [Create custom SAML app integrations (crear inte | Campo de entrada del proveedor de identificación Okta | Valor esperado | |-----------------------------|--------------------------------------------------------------------------------------------------------------------------------| | URL de inicio de sesión único | URL del servicio de consumidor de afirmaciones (Encuentra esta URL en la [Configure SAML page (configurar página SAML)][3], en el campo *Assertion Consumer Service URL* [URL del servicio de consumidor de afirmaciones]). | -| URL del receptor | URL del servicio de consumidor de afirmaciones (o haz clic en *Use this for Recipient URL and Destination URL* [Utilizar esta URL del receptor y URL de destino]) | +| URL del receptor | URL del servicio de consumidor de afirmaciones (o haz clic en la casilla *Use this for Recipient URL and Destination URL* [Utilizar esta URL del receptor y URL de destino]) | | URL de destino | URL del servicio de consumidor de afirmaciones (o haz clic en la casilla *Use this for Recipient URL and Destination URL* [Utilizar esta URL del receptor y URL de destino]) | | URI de audiencia (ID de entidad del proveedor de servicios) | ID de entidad proveedora de servicios (Encuentra este ID en la [Configure SAML page (página Configurar SAML)][3], en el campo *Service Provider Entity ID* [ID de entidad proveedora de servicios]). | | Formato de ID de nombre | EmailAddress | @@ -64,7 +64,7 @@ Encontrarás información adicional sobre la configuración de SAML para tu cuen En el caso de que necesitas para cargar un archivo `IDP.XML` a Datadog antes de ser capaz de completamente configurar la aplicación en Okta, ve [acquiring the idp.xml metadata file for a SAML template App article (el artículo sobre la adquisición del archivo de metadatos idp.xml para una app de plantilla SAML][6] para las instrucciones de marcador de posición de campo. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/agent/guide/heroku-ruby.md b/content/es/agent/guide/heroku-ruby.md index b4f274b496ae3..2f603b184c702 100644 --- a/content/es/agent/guide/heroku-ruby.md +++ b/content/es/agent/guide/heroku-ruby.md @@ -615,10 +615,10 @@ Dirígete a la [sección de trazas de APM][19] para ver tus trazas: {{< img src="agent/guide/heroku_ruby/traces.png" alt="Trazas de aplicaciones de Ruby en Datadog" >}} -Navega al [catálogo de servicios][20] para ver todos tus servicios de aplicación y una vista de tu servicio de aplicación: +Accede al [Catálogo de servicios][20] para ver todos tus servicios de aplicaciones y una vista de tus servicios de aplicaciones: -{{< img src="agent/guide/heroku_ruby/ruby_service.png" alt="Service Catalog in Datadog" >}} -{{< img src="agent/guide/heroku_ruby/service_page.png" alt="Ruby application service details page in Datadog" >}} +{{< img src="agent/guide/heroku_ruby/ruby_service.png" alt="Catálogo de servicios en Datadog" >}} +{{< img src="agent/guide/heroku_ruby/service_page.png" alt="Página de detalles de servicios de la aplicación Ruby en Datadog" >}} ## Logs @@ -832,7 +832,7 @@ Agent (v7.27.0) [...] ``` -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/api/latest/incident-services/_index.md b/content/es/api/latest/incident-services/_index.md new file mode 100644 index 0000000000000..1475af30b1e56 --- /dev/null +++ b/content/es/api/latest/incident-services/_index.md @@ -0,0 +1,3 @@ +--- +title: Servicios de incidencias +--- diff --git a/content/es/api/latest/okta-integration/_index.md b/content/es/api/latest/okta-integration/_index.md new file mode 100644 index 0000000000000..df52d3cb77912 --- /dev/null +++ b/content/es/api/latest/okta-integration/_index.md @@ -0,0 +1,3 @@ +--- +title: Integración de Okta +--- diff --git a/content/es/api/latest/opsgenie-integration/_index.md b/content/es/api/latest/opsgenie-integration/_index.md new file mode 100644 index 0000000000000..098056c2d55a7 --- /dev/null +++ b/content/es/api/latest/opsgenie-integration/_index.md @@ -0,0 +1,3 @@ +--- +title: Integración de Opsgenie +--- diff --git a/content/es/api/latest/service-definition/_index.md b/content/es/api/latest/service-definition/_index.md new file mode 100644 index 0000000000000..49cb002145312 --- /dev/null +++ b/content/es/api/latest/service-definition/_index.md @@ -0,0 +1,3 @@ +--- +title: Definición de servicio +--- diff --git a/content/es/containers/guide/clustercheckrunners.md b/content/es/containers/guide/clustercheckrunners.md index 26172c3fd3449..823ac26f8c343 100644 --- a/content/es/containers/guide/clustercheckrunners.md +++ b/content/es/containers/guide/clustercheckrunners.md @@ -29,7 +29,7 @@ En primer lugar, [despliega el Cluster Agent][3]. A continuación, despliega el Cluster Check Runner utilizando [Datadog Operator][4] o [Helm][5]: {{< tabs >}} -{{% tab "Operator" %}} +{{% tab "Datadog Operator" %}} Con el Operador, puedes lanzar y gestionar todos estos recursos con un único manifiesto. Por ejemplo: diff --git a/content/es/containers/kubernetes/configuration.md b/content/es/containers/kubernetes/configuration.md new file mode 100644 index 0000000000000..d2f9ad63a702b --- /dev/null +++ b/content/es/containers/kubernetes/configuration.md @@ -0,0 +1,863 @@ +--- +aliases: +- /es/integrations/faq/gathering-kubernetes-events +- /es/agent/kubernetes/event_collection +- /es/agent/kubernetes/configuration +title: Configurar mejor el Datadog Agent en Kubernetes +--- + +## Información general + +Después de haber instalado el Datadog Agent en tu entorno de Kubernetes, puedes elegir opciones de configuración adicionales. + +### Habilita a Datadog para recopilar: +- [Trazas (traces) (APM)](#enable-apm-and-tracing) +- [Eventos de Kubernetes](#enable-kubernetes-event-collection) +- [NPM](#enable-npm-collection) +- [Logs](#enable-log-collection) +- [Procesos](#enable-process-collection) + +### Otras capacidades +- [Datadog Cluster Agent](#datadog-cluster-agent) +- [Integraciones](#integrations) +- [Vista de contenedores](#containers-view) +- [Orchestrator Explorer](#orchestrator-explorer) +- [Servidor de métricas externas](#custom-metrics-server) + +### Más configuraciones +- [Variables de entorno](#environment-variables) +- [Métricas personalizadas de DogStatsD](#configure-dogstatsd) +- [Asignación de etiqueta (tag)](#configure-tag-mapping) +- [Secretos](#using-secret-files) +- [Ignorar contenedores](#ignore-containers) +- [Tiempo de ejecución del servidor de la API de Kubernetes](#kubernetes-api-server-timeout) +- [Configuración del proxy](#proxy-settings) +- [Autodiscovery](#Autodiscovery) +- [Miscelánea](#miscellaneous) + +## Activar APM y rastreo + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +Edita tu `datadog-agent.yaml` para establecer `features.apm.enabled` en `true`. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + + features: + apm: + enabled: true +``` + +{{% k8s-operator-redeploy %}} + +{{% /tab %}} +{{% tab "Helm" %}} + +En Helm, APM está **habilitado por defecto** sobre la canalización de UDS o Windows. + +Para comprobarlo, asegúrate de que `datadog.apm.socketEnabled` está configurado como `true` en tu `values.yaml`. + +```yaml +datadog: + apm: + socketEnabled: true +``` + +{{% /tab %}} +{{< /tabs >}} + +Para obtener más información, consulta [Recopilación de trazas de Kubernetes][16]. + +## Activar la recopilación de eventos de Kubernetes + +Utiliza el [Datadog Cluster Agent][2] para recopilar eventos de Kubernetes. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +La recopilación de eventos está activada por defecto por el Datadog Operator. Esto se puede gestionar en la configuración `features.eventCollection.collectKubernetesEvents` en tu `datadog-agent.yaml`. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + site: + + features: + eventCollection: + collectKubernetesEvents: true +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +Para recopilar eventos de Kubernetes con el Datadog Cluster Agent, asegúrate de que las opciones `clusterAgent.enabled`, `datadog.collectEvents` y `clusterAgent.rbac.create` están configuradas como `true` en tu archivo `datadog-values.yaml`. + +```yaml +datadog: + collectEvents: true +clusterAgent: + enabled: true + rbac: + create: true +``` + +Si no deseas utilizar la opción de Cluster Agent, puedes hacer que un Node Agent recopila eventos de Kubernetes configurando las opciones `datadog.leaderElection`, `datadog.collectEvents` y `agents.rbac.create` como `true` en tu archivo `datadog-values.yaml`. + +```yaml +datadog: + leaderElection: true + collectEvents: true +agents: + rbac: + create: true +``` + +[1]: /es/containers/cluster_agent + +{{% /tab %}} +{{< /tabs >}} + +Para la configuración de DaemonSet, consulta [Recopilación de eventos de Cluster Agent en DaemonSet][14]. + +## Activar la recopilación de NPM + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +En tu `datadog-agent.yaml`, establece `features.npm.enabled` en `true`. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + + features: + npm: + enabled: true +``` + +A continuación, aplica la nueva configuración: + +```shell +kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +Actualiza tu `datadog-values.yaml` con la siguiente configuración: + +```yaml +datadog: + # (...) + networkMonitoring: + enabled: true +``` + +A continuación, actualiza tu tabla de Helm: + +```shell +helm upgrade -f datadog-values.yaml datadog/datadog +``` + +{{% /tab %}} +{{< /tabs >}} + +Para obtener más información, consulta [Monitorización de rendimiento de red][18]. + +## Activar la recopilación de log + +{{< tabs >}} +{{% tab "Datadog Operator" %}} +En tu `datadog-agent.yaml`, establece `features.logCollection.enabled` y `features.logCollection.containerCollectAll` en `true`. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + + features: + logCollection: + enabled: true + containerCollectAll: true +``` + +A continuación, aplica la nueva configuración: + +```shell +kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml +``` + +{{% /tab %}} +{{% tab "Helm" %}} +Actualiza tu `datadog-values.yaml` con la siguiente configuración: + +```yaml +datadog: + # (...) + logs: + enabled: true + containerCollectAll: true +``` + +A continuación, actualiza tu tabla de Helm: + +```shell +helm upgrade -f datadog-values.yaml datadog/datadog +``` +{{% /tab %}} +{{< /tabs >}} + +Para obtener más información, consulta [Recopilación de log de Kubernetes][17]. + +## Activar la recopilación de procesos + +{{< tabs >}} +{{% tab "Datadog Operator" %}} +En tu `datadog-agent.yaml`, establece `features.liveProcessCollection.enabled` en `true`. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + + features: + liveProcessCollection: + enabled: true +``` + +A continuación, aplica la nueva configuración: + +```shell +kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml +``` + +{{% /tab %}} +{{% tab "Helm" %}} +Actualiza tu `datadog-values.yaml` con la siguiente configuración: + +```yaml +datadog: + # (...) + processAgent: + enabled: true + processCollection: true +``` + +A continuación, actualiza tu tabla de Helm: + +```shell +helm upgrade -f datadog-values.yaml datadog/datadog +``` +{{% /tab %}} +{{< /tabs >}} + +Para obtener más información, consulta [Live Processes][23] +## Datadog Cluster Agent + +Datadog Cluster Agent proporciona un enfoque optimizado y centralizado para recopilar datos de monitorización del clúster. Datadog recomienda encarecidamente el uso de Cluster Agent para la monitorización de Kubernetes. + +Datadog Operator v1.0.0+ y tabla de Helm v2.7.0+ **habilitan por defecto el Cluster Agent **. No es necesaria ninguna otra configuración. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +El Datadog Operator v1.0.0+ habilita el Cluster Agent por defecto. El Operator crea los RBAC necesarios y despliega Cluster Agent. Ambos Agents utilizan la misma clave de API. + +El Operador genera automáticamente un token aleatorio en un `Secret` de Kubernetes que lo compartirán el Datadog Agent y Cluster Agent para una comunicación segura. + +Puedes especificar manualmente este token en el campo `global.clusterAgentToken` de tu `datadog-agent.yaml`: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + appKey: + clusterAgentToken: +``` + +También puedes especificar este token haciendo referencia al nombre de un `Secret` existente y a la clave de datos que contiene este token: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + appKey: + clusterAgentTokenSecret: + secretName: + keyName: +``` + +**Nota**: Cuando se configura manualmente, este token debe tener 32 caracteres alfanuméricos. + +A continuación, aplica la nueva configuración: + +```shell +kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +La tabla de Helm v2.7.0+ activa por defecto el Cluster Agent. + +Para comprobarlo, asegúrate de que `clusterAgent.enabled` está configurado como `true` en tu `datadog-values.yaml`: + +```yaml +clusterAgent: + enabled: true +``` + +Helm genera automáticamente un token aleatorio en un `Secret` de Kubernetes compartido por el Datadog Agent y Cluster Agent para una comunicación segura. + +Puedes especificar manualmente este token en el campo `clusterAgent.token` de tu `datadog-agent.yaml`: + +```yaml +clusterAgent: + enabled: true + token: +``` + +Alternativamente, puedes especificar este token haciendo referencia al nombre de un `Secret` existente, donde el token se encuentra en una clave llamada `token`: + +```yaml +clusterAgent: + enabled: true + tokenExistingSecret: +``` + +{{% /tab %}} +{{< /tabs >}} + +Para más información, consulta la [documentación de Datadog Cluster Agent][2]. + +## Servidor de métricas personalizadas + +Para utilizar la función [servidor de métricas personalizadas][22] de Cluster Agent, debes proporcionar una [clave de aplicación][24] de Datadog y activar el proveedor de métricas. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} +En `datadog-agent.yaml`, proporcione una clave de aplicación en `spec.global.credentials.appKey` y establece `features.externalMetricsServer.enabled` en `true`. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + appKey: + + features: + externalMetricsServer: + enabled: true +``` + +A continuación, aplica la nueva configuración: + +```shell +kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml +``` +{{% /tab %}} +{{% tab "Helm" %}} +En `datadog-values.yaml`, proporcione una clave de aplicación en `datadog.appKey` y establece `clusterAgent.metricsProvider.enabled` en `true`. + +```yaml +datadog: + apiKey: + appKey: + +clusterAgent: + enabled: true + metricsProvider: + enabled: true +``` + +A continuación, actualiza tu tabla de Helm: + +```shell +helm upgrade -f datadog-values.yaml datadog/datadog +``` + +{{% /tab %}} +{{< /tabs >}} + +## Integraciones + +Una vez que Agent esté funcionando en tu clúster, utiliza [la característica Autodiscovery de Datadog][5] para recopilar métricas y logs automáticamente de tus pods. + +## Vista de contenedores + +Para utilizar el [Explorador de contenedores][3] de Datadog, active el Agent de proceso. Datadog Operator y la tabla de Helm **habilitan el Agent de proceso por defecto**. No es necesario ninguna otra configuración. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +De manera predeterminada, el Datadog Operator habilita el Process Agent. + +Para comprobarlo, asegúrate de que `features.liveContainerCollection.enabled` se haya establecido en `true` en tu `datadog-agent.yaml`: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + appKey: + features: + liveContainerCollection: + enabled: true +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +La tabla de Helm activa el Agent de proceso por defecto. + +Para comprobarlo, asegúrate de que `processAgent.enabled` está configurado como `true` en tu `datadog-values.yaml`: + +```yaml +datadog: + # (...) + processAgent: + enabled: true +``` + +En algunas configuraciones, el Process Agent y Cluster Agent no pueden detectar de manera automática un nombre de clúster de Kubernetes. Si esto ocurre, la función no se inicia y aparece la siguiente advertencia en el log del Cluster Agent: `Orchestrator explorer enabled but no cluster name set: disabling.` En este caso, debes establecer `datadog.clusterName` en tu nombre de clúster en `values.yaml`. + +```yaml +datadog: + #(...) + clusterName: + #(...) + processAgent: + enabled: true +``` + +[1]: https://github.com/DataDog/helm-charts +[2]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/values.yaml +{{% /tab %}} +{{< /tabs >}} + +Consulta la documentación [Vista de contenedores][15] para obtener información adicional. + +## Orchestrator Explorer + +El Datadog Operator y la tabla de Helm **habilitan por defecto el [Orchestrator Explorer][20] de Datadog**. No es necesario ninguna otra configuración. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +Orchestrator Explorer está activado por defecto en el Datadog Operator. + +Para comprobarlo, asegúrate de que el parámetro `features.orchestratorExplorer.enabled` se haya establecido en `true` en tu `datadog-agent.yaml`: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + appKey: + features: + orchestratorExplorer: + enabled: true +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +La tabla de Helm habilita Orchestrator Explorer por defecto. + +Para comprobarlo, asegúrate de que el parámetro `orchestratorExplorer.enabled` está configurado como `true` en tu archivo `datadog-values.yaml`: + +```yaml +datadog: + # (...) + processAgent: + enabled: true + orchestratorExplorer: + enabled: true +``` + +{{% /tab %}} +{{< /tabs >}} + +Consulta la [documentación de Orchestrator Explorer][21] para obtener información adicional. + +## Configuración básica + +Utiliza los siguientes campos de configuración para configurar el Datadog Agent. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +| Parámetro (v2alpha1) | Descripción | +| --------------------------- | ----------- | +| `global.credentials.apiKey` | Configura tu clave de API Datadog. | +| `global.credentials.apiSecret.secretName` | En lugar de `global.credentials.apiKey`, indica el nombre de un `Secret` de Kubernetes que contenga tu clave de API de Datadog.| +| `global.credentials.apiSecret.keyName` | En lugar de `global.credentials.apiKey`, proporciona la clave del `Secret` de Kubernetes nombrada en `global.credentials.apiSecret.secretName`.| +| `global.credentials.appKey` | Configura tu clave de aplicación de Datadog. Si utilizas el servidor de métricas externas, debes configurar una clave de aplicación de Datadog para el acceso de lectura a tus métricas. | +| `global.credentials.appSecret.secretName` | En lugar de `global.credentials.apiKey`, indica el nombre de un `Secret` de Kubernetes que contenga la clave de tu aplicación de Datadog.| +| `global.credentials.appSecret.keyName` | En lugar de `global.credentials.apiKey`, proporciona la clave del `Secret` de Kubernetes nombrada en `global.credentials.appSecret.secretName`.| +| `global.logLevel` | Establece la intensidad del registro. Esto puede ser anulado por el contenedor. Los niveles de log válidos son: `trace`, `debug`, `info`, `warn`, `error`, `critical` y `off`. Por defecto: `info`. | +| `global.registry` | Registro de imágenes a utilizar para todas las imágenes de Agent. Por defecto: `gcr.io/datadoghq`. | +| `global.site` | Establece el [sitio de entrada][1] de Datadog al que se envían los datos del Agent. Tu sitio es {{< region-param key="dd_site" code="true" >}}. (Asegúrate de seleccionar el SITIO correcto a la derecha). | +| `global.tags` | Un lista de etiquetas para adjuntar a cada métrica, evento y check de servicio recopilados. | + +Para consultar la lista completa de los campos de configuración para el Datadog Operator, vea la [especificación de Operator v2alpha1][2]. Para versiones anteriores, vea la [especificación de Operator v1alpha1][3]. Los campos de configuración también pueden consultarse mediante `kubectl explain datadogagent --recursive`. + +[1]: /es/getting_started/ +[2]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md +[3]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v1alpha1.md +{{% /tab %}} +{{% tab "Helm" %}} +| Helm | Descripción | +| ---- | ----------- | +| `datadog.apiKey` | Configura tu clave de API de Datadog. | +| `datadog.apiKeyExistingSecret` | En lugar de `datadog.apiKey`, proporciona el nombre de un `Secret` de Kubernetes existente que contenga tu clave de API de Datadog, configurada con el nombre de clave `api-key`. | +| `datadog.appKey` | Configura tu clave de aplicación de Datadog. Si utilizas el servidor de métricas externas, debes configurar una clave de aplicación de Datadog para el acceso de lectura a tus métricas. | +| `datadog.appKeyExistingSecret` | En lugar de `datadog.appKey`, proporciona el nombre de un `Secret` de Kubernetes existente que contenga tu clave de aplicación de Datadog, configurada con el nombre de clave `app-key`. | +| `datadog.logLevel` | Establece la verbosidad del registro. Esto puede ser anulado por el contenedor. Los niveles válidos de log son: `trace`, `debug`, `info`, `warn`, `error`, `critical` y `off`. Por defecto: `info`. | +| `registry` | Registro de imagen a utilizar para todas las imágenes del Agent. Por defecto: `gcr.io/datadoghq`. | +| `datadog.site` | Establece el [sitio de entrada][1] de Datadog al que se envían los datos del Agent. Tu sitio es {{< region-param key="dd_site" code="true" >}}. (Asegúrate de seleccionar el SITIO correcto a la derecha). | +| `datadog.tags` | Un lista de etiquetas para adjuntar a cada métrica, evento y check de servicio recopilados. | + +Si deseas consultar la lista completa de las variables de entorno para la tabla de Helm, consulta la [ lista completa de opciones][2] para `datadog-values.yaml`. + +[1]: /es/getting_started/site +[2]: https://github.com/DataDog/helm-charts/tree/main/charts/datadog#all-configuration-options +{{% /tab %}} +{{% tab "DaemonSet" %}} +| Variable de Ent | Descripción | +|----------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `DD_API_KEY` | Tu Datadog clave de API (**obligatorio**) | +| `DD_ENV` | Establece la etiqueta global `env` para todos los datos emitidos. | +| `DD_HOSTNAME` | Nombre de host a utilizar para métricas (si falla la detección automática) | | | +| `DD_TAGS` | Etiquetas de host separadas por espacios. Por ejemplo: `simple-tag-0 tag-key-1:tag-value-1` | +| `DD_SITE` | Sitio de destino para tus métricas, trazas y logs. Tu `DD_SITE` es {{< region-param key="dd_site" code="true">}}. Por defecto es `datadoghq.com`. | +| `DD_DD_URL` | Opcional para anular la URL de envío de métrica. | +| `DD_URL` (6.36+/7.36+) | Alias para `DD_DD_URL`. Ignorado si `DD_DD_URL` ya está configurado. | +| `DD_CHECK_RUNNERS` | El Agent ejecuta todos los checks de forma concurrente por defecto (valor por defecto = `4` ejecutores). Para ejecutar checks secuencialmente, ajusta el valor en `1`. Si necesitas ejecutar un número elevado de checks (o checks lentos), el componente `collector-queue` podría retrasarse y el check de estado podría fallar. Puede aumentar el número de ejecutores para iniciar checks en paralelo. | +| `DD_LEADER_ELECTION` | Si se están ejecutando múltiples instancias del Agent en tu clúster, establece esta variable en `true` para evitar la duplicación de la recopilación de eventos. | +{{% /tab %}} +{{< /tabs >}} + +## Variables de entorno +El Datadog Agent en contenedores puede configurarse utilizando variables de entorno. Para una amplia lista de las variables de entorno compatibles, consulta la sección [variables de entorno][26] de la documentación del Docker Agent. + +### Ejemplos +{{< tabs >}} +{{% tab "Datadog Operator" %}} +Al utilizar el Datadog Operator, puedes establecer variables de entorno adicionales en `override` para un componente con `[key].env []object`, o para un contenedor con `[key].containers.[key].env []object`. Se admiten las siguientes claves: + +- `nodeAgent` +- `clusterAgent` +- `clusterChecksRunner` + +Los ajustes de contenedor tienen prioridad sobre los ajustes de componente. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + override: + nodeAgent: + env: + - name: + value: + clusterAgent: + containers: + cluster-agent: + env: + - name: + value: +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +```yaml +datadog: + env: + - name: + value: +clusterAgent: + env: + - name: + value: +``` + +{{% /tab %}} +{{% tab "DaemonSet" %}} +Añade variables de entorno al DaemonSet o al despliegue (para Datadog Cluster Agent). +```yaml +apiVersion: apps/v1 +kind: DaemonSet +metadata: + name: datadog +spec: + template: + spec: + containers: + - name: agent + ... + env: + - name: + value: +``` + +{{% /tab %}} +{{< /tabs >}} + +## Configurar DogStatsD + +DogStatsD puede enviar métricas personalizadas sobre UDP con el protocolo StatsD. **DogStatsD está habilitado por defecto por Datadog Operator y Helm**. Consulta la [documentación de DogStatsD][19] para obtener más información. + +Puedes utilizar las siguientes variables de entorno para configurar DogStatsD con DaemonSet: + +| Variable de Env | Descripción | +|----------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` | Escucha los paquetes de DogStatsD de otros contenedores (obligatorio para enviar métricas personalizadas). | +| `DD_HISTOGRAM_PERCENTILES` | Los percentiles de histogramas para calcular (separados por espacios). Por defecto es `0.95`. | +| `DD_HISTOGRAM_AGGREGATES` | Los agregados del histograma a calcular (separados por espacios). El valor por defecto es `"max median avg count"`. | +| `DD_DOGSTATSD_SOCKET` | Ruta al socket de Unix a escuchar. Debe estar en un volumen montado en `rw`. | +| `DD_DOGSTATSD_ORIGIN_DETECTION` | Activa la detección de contenedores y etiquetado para las métricas de socket de Unix. | +| `DD_DOGSTATSD_TAGS` | Etiquetas adicionales para anexar a todas las métricas, los eventos y los checks de servicios recibidos por este servidor de DogStatsD, por ejemplo: `"env:golden group:retrievers"`. | + +## Configurar la asignación de etiquetas + +Datadog recopila automáticamente etiquetas comunes de Kubernetes. + +Además, puedes asignar etiquetas de nodos de Kubernetes, etiquetas de pods y anotaciones a las etiquetas de Datadog. Utiliza las siguientes variables de entorno para configurar esta asignación: + +{{< tabs >}} +{{% tab "Datadog Operator" %}} + +| Parámetro (v2alpha1) | Descripción | +| --------------------------- | ----------- | +| `global.namespaceLabelsAsTags` | Proporciona una asignación entre las etiquetas de espacio de nombres de Kubernetes y etiquetas de Datadog. `: ` | +| `global.nodeLabelsAsTags` | Proporciona una asignación entre las etiquetas de nodo de Kubernetes y etiquetas de Datadog. `: ` | +| `global.podAnnotationsAsTags` | Proporciona una asignación entre anotaciones de Kubernetes y etiquetas de Datadog. `: ` | +| `global.podLabelsAsTags` | Proporciona una asignación entre las etiquetas de Kubernetes y las etiquetas de Datadog. `: ` | + +### Ejemplos + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + namespaceLabelsAsTags: + env: environment + # : + nodeLabelsAsTags: + beta.kubernetes.io/instance-type: aws-instance-type + kubernetes.io/role: kube_role + # : + podLabelsAsTags: + app: kube_app + release: helm_release + # : + podAnnotationsAsTags: + iam.amazonaws.com/role: kube_iamrole + # : +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +| Helm | Descripción | +| --------------------------- | ----------- | +| `datadog.namespaceLabelsAsTags` | Proporciona una asignación entre las etiquetas de espacio de nombres de Kubernetes y etiquetas de Datadog. `: ` | +| `datadog.nodeLabelsAsTags` | Proporciona una asignación entre las etiquetas de nodo de Kubernetes y etiquetas de Datadog. `: ` | +| `datadog.podAnnotationsAsTags` | Proporciona una asignación entre anotaciones de Kubernetes y etiquetas de Datadog. `: ` | +| `datadog.podLabelsAsTags` | Proporciona una asignación entre las etiquetas de Kubernetes y las etiquetas de Datadog. `: ` | + +### Ejemplos + +```yaml +datadog: + # (...) + namespaceLabelsAsTags: + env: environment + # : + nodeLabelsAsTags: + beta.kubernetes.io/instance-type: aws-instance-type + kubernetes.io/role: kube_role + # : + podLabelsAsTags: + app: kube_app + release: helm_release + # : + podAnnotationsAsTags: + iam.amazonaws.com/role: kube_iamrole + # : +``` + +{{% /tab %}} +{{< /tabs >}} + +## Usar archivos secretos + +Las credenciales de integración pueden almacenarse en los secretos de Docker o Kubernetes y utilizarse en las plantillas de Autodiscovery. Para obtener más información, consulta [Gestión de secretos][12]. + +## Ignora los contenedores + +Excluye contenedores de la recopilación de logs, métricas y Autodiscovery. Datadog excluye los contenedores `pause` de Kubernetes y OpenShift por defecto. Estas listas de permisos y denegaciones se aplican únicamente a Autodiscovery; las trazas y DogStatsD no se ven afectados. Estas variables de entorno admiten expresiones regulares en sus valores. + +Consulta la página [Gestión de detección de contenedores][13] para ver ejemplos. + +**Nota**: Las métricas `kubernetes.containers.running`, `kubernetes.pods.running`, `docker.containers.running`, `.stopped`, `.running.total` y `.stopped.total` no se ven afectadas por estos ajustes. Se cuentan todos los contenedores. + +## Tiempo de espera del servidor de API de Kubernetes + +Por defecto, [el check de las métricas centrales de estado de Kubernetes][25] espera 10 segundos para recibir una respuesta del servidor de la API de Kubernetes. En el caso de clústeres de gran tamaño, es posible que se agote el tiempo de espera y se pierdan métricas. + +Puedes evitarlo al configurar la variable de entorno `DD_KUBERNETES_APISERVER_CLIENT_TIMEOUT` en un valor superior al predeterminado de 10 segundos. + +{{< tabs >}} +{{% tab "Datadog Operator" %}} +Actualiza tu `datadog-agent.yaml` con la siguiente configuración: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + override: + clusterAgent: + env: + - name: DD_KUBERNETES_APISERVER_CLIENT_TIMEOUT + value: +``` + +A continuación, aplica la nueva configuración: + +```shell +kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml +``` + +{{% /tab %}} +{{% tab "Helm" %}} +Actualiza tu `datadog-values.yaml` con la siguiente configuración: + +```yaml +clusterAgent: + env: + - name: DD_KUBERNETES_APISERVER_CLIENT_TIMEOUT + value: +``` + +A continuación, actualiza tu tabla de Helm: + +```shell +helm upgrade -f datadog-values.yaml datadog/datadog +``` +{{% /tab %}} +{{< /tabs >}} + +## Configuraciones de proxy + +A partir del Agent v6.4.0 (y v6.5.0 para el Trace Agent), se pueden sobreescribir los valores de configuración de proxy del Agent con las siguientes variables de entorno: + +| Variable de Env | Descripción | +|--------------------------|------------------------------------------------------------------------| +| `DD_PROXY_HTTP` | Una URL de HTTP para usar como proxy para solicitudes de `http`. | +| `DD_PROXY_HTTPS` | Una URL de HTTP para usar como proxy para solicitudes de `https`. | +| `DD_PROXY_NO_PROXY` | Una lista separada por espacios de URLs para las que no se debe utilizar ningún proxy. | +| `DD_SKIP_SSL_VALIDATION` | Una opción para comprobar si el Agent tiene problemas para conectarse a Datadog. | + +## Autodiscovery + +| Variable de Env | Descripción | +|------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `DD_LISTENERS` | Oyentes de Autodiscovery para ejecutar. | +| `DD_EXTRA_LISTENERS` | Oyentes de Autodiscovery adicionales para ejecutar. Se añaden además de las variables definidas en la sección `listeners` del archivo de configuración `datadog.yaml`. | +| `DD_CONFIG_PROVIDERS` | Los proveedores a los que el Agent debe llamar para recopilar las configuraciones de check. Los proveedores disponibles son:
`kubelet`: maneja plantillas incrustadas en anotaciones de pods.
`docker`: maneja plantillas incrustadas en etiquetas de contenedor.
`clusterchecks`: recupera configuraciones de check de clúster del Cluster Agent .
`kube_services`: controla servicios de Kubernetes para checks de clústeres. | +| `DD_EXTRA_CONFIG_PROVIDERS` | Proveedores de configuración de Autodiscovery adicionales a utilizar. Se añaden además de las variables definidas en la sección `config_providers` del archivo de configuración `datadog.yaml`. | + +## Miscelánea + +| Variable de Env | Descripción | +|-------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `DD_PROCESS_AGENT_CONTAINER_SOURCE` | Sobreescribe la detección automática del origen del contenedor para forzar un único origen. Por ejemplo: `"docker"`, `"ecs_fargate"`, `"kubelet"`. Esto ya no es necesario a partir de Agent v7.35.0. | +| `DD_HEALTH_PORT` | Configura esto como `5555` para exponer el check de estado del Agent en el puerto `5555`. | +| `DD_CLUSTER_NAME` | Establece un identificador de clústeres de Kubernetes personalizado para evitar colisiones de alias de host. El nombre del clúster puede tener un máximo de 40 caracteres con las siguientes restricciones: solo letras minúsculas, números y guiones. Debe empezar por una letra. Debe terminar con un número o una letra. | +| `DD_COLLECT_KUBERNETES_EVENTS ` | Habilita la recopilación de eventos con el Agent. Si estás ejecutando varias instancias del Agent en tu clúster, configura también `DD_LEADER_ELECTION` en `true`. | + + +[1]: /es/agent/ +[2]: /es/containers/cluster_agent/ +[3]: https://app.datadoghq.com/containers +[5]: /es/containers/kubernetes/integrations/ +[12]: /es/agent/configuration/secrets-management/ +[13]: /es/agent/guide/autodiscovery-management/ +[14]: /es/containers/guide/kubernetes_daemonset#cluster-agent-event-collection +[15]: /es/infrastructure/containers/ +[16]: /es/containers/kubernetes/apm +[17]: /es/containers/kubernetes/log +[18]: /es/network_monitoring/performance/ +[19]: /es/developers/dogstatsd +[20]: https://app.datadoghq.com/orchestration/overview +[21]: /es/infrastructure/containers/orchestrator_explorer +[22]: /es/containers/guide/cluster_agent_autoscaling_metrics/?tab=helm +[23]: /es/infrastructure/process/ +[24]: /es/account_management/api-app-keys/#application-keys +[25]: /es/integrations/kubernetes_state_core/ +[26]: /es/containers/docker/?tab=standard#environment-variables \ No newline at end of file diff --git a/content/es/dashboards/functions/count.md b/content/es/dashboards/functions/count.md index 9d1ebe4d3c534..73d72adfdbb18 100644 --- a/content/es/dashboards/functions/count.md +++ b/content/es/dashboards/functions/count.md @@ -30,7 +30,7 @@ Ejemplo: `count_not_null(system.cpu.user{*} by {host})` devuelve una serie tempo {{< img src="dashboards/funciones/count/count_not_null.png" alt="Conteo de valores no nulos" style="width:80%;">}} -## Otras funciones +## Otros funciones {{< whatsnext desc="Consulta las demás funciones disponibles:" >}} {{< nextlink href="/dashboards/functions/algorithms" >}}Algorítmica: implementa la detección de anomalías o outliers en la métrica.{{< /nextlink >}} diff --git a/content/es/dashboards/guide/screenboard-api-doc.md b/content/es/dashboards/guide/screenboard-api-doc.md index 91d5277f68afa..faf38464c5054 100644 --- a/content/es/dashboards/guide/screenboard-api-doc.md +++ b/content/es/dashboards/guide/screenboard-api-doc.md @@ -20,12 +20,12 @@ El endpoint `screenboard` permite crear, actualizar, eliminar y consultar screen ### Argumentos * **`board_title`** [*required* (requerido)]: - El nombre del dashboard. -* **`description`** (descripción) [*opcional*, *por defecto*=**Ninguno**]: - Una descripción del contenido de dashboard. + Nombre del dashboard. +* **`description`** (descripción) [*opcional*, *default*=**None**]: + Descripción del contenido del dashboard. * **`widgets`** [*required* (requerido)]: Una lista de definiciones de widget. Para obtener una definición de widget, utiliza la *pestaña JSON* en la IU de la configuración de widget. -* **`template_variables`** [*opcional*, *default*=**None**]: +* **`template_variables`** [*optional*, *default*=**None**]: Una lista de variables de plantilla para utilizar la plantilla dashboard. * **`read_only`** [*opcional*, *default*=**False**]: El estado de solo lectura del screenboard. @@ -139,18 +139,18 @@ curl -X POST -H "Tipo de contenido: aplicación/json" \ ### Argumentos * **`board_title`** [*required* (requerido)]: - El nombre del dashboard. + Nombre del dashboard. * **`description`** (descripción) [*opcional*, *default*=**None**]: - Una descripción del contenido de dashboard. + Descripción del contenido del dashboard. * **`widgets`** [*required* (requerido)]: - Una lista de definiciones widget. Para obtener una definición de widget, utiliza la *pestaña JSON* en la IU de la configuración de widget. -* **`template_variables`** [*optional* (opcional), *default*=**None**]: + Una lista de definiciones de widget. Para obtener una definición de widget, utiliza la *pestaña JSON* en la IU de la configuración de widget. +* **`template_variables`** [*optional*, *default*=**None**]: Una lista de variables de plantilla para utilizar la plantilla dashboard. * **`width`** [*optional* (opcional), *default*=**None**]: Ancho de screenboard en píxeles * **`height`** (altura) [*optional* (opcional), *default*=**None**]: Altura de screenboard en píxeles. -* **`read_only`** [*optional* (opcional), *default*=**False**]: +* **`read_only`** [*opcional*, *default*=**False**]: El estado de solo lectura del screenboard. ### Ejemplos diff --git a/content/es/dashboards/widgets/pie_chart.md b/content/es/dashboards/widgets/pie_chart.md index 57ce04406eeb8..34f0740f8cded 100644 --- a/content/es/dashboards/widgets/pie_chart.md +++ b/content/es/dashboards/widgets/pie_chart.md @@ -19,9 +19,9 @@ El widget de gráfico circular puede mostrar un único conjunto de datos con las ## Configuración 1. Selecciona una de las fuentes de datos disponibles. -2. Configurar la consulta, consulta los siguientes recursos para obtener más información: - * Métricas: consulta la documentación [querying (consulta)][1] para configurar una consulta métrica. - * Events: consulta la documentación [log search (búsqueda de log)][2] para configurar una consulta de evento de log. +2. Configura la consulta, consulta los siguientes recursos para obtener más información: + * Métricas: consulta la documentación [querying (de consulta)][1] para configurar una consulta métrica. + * Events: consulta la documentación [log search (buscar log)][2] para configurar una consulta de evento de log. 3. (Opcional) Modificar la consulta con una [fórmula][3]. 4. Personaliza tu gráfico. @@ -41,7 +41,7 @@ Por defecto, la opción **Automático** muestra una leyenda de Lado etiquetada d ### Enlaces contextuales -Los [Context links (enlaces contextuales)][4] están activados por defecto y pueden activarse o desactivarse. Los enlaces contextuales sirven de puente entre el widget de dashboard y otras páginas (en Datadog o de terceros). +Los [Context links (enlaces contextuales)][4] están activados por defecto y pueden activarse o desactivarse. Los enlaces contextuales enlazan widgets de dashboard con otras páginas (en Datadog o de terceros). ## Visualización e interacción @@ -59,7 +59,7 @@ La visualización del widget de gráfico circular en pantalla completa muestra e ## API -Este widget puede utilizarse con la **[API de dashboards][6]**. Ve la siguiente tabla para la [definición del esquema de JSON de widget][7]: +Este widget puede utilizarse con la **[API de dashboards][6]**. Ve la siguiente tabla para la [definición del esquema JSON widget][7]:
El tipo de widget para gráfico circular es sunburst.
diff --git a/content/es/dashboards/widgets/top_list.md b/content/es/dashboards/widgets/top_list.md index 0f95028ee2c41..7c0f2b655f97c 100644 --- a/content/es/dashboards/widgets/top_list.md +++ b/content/es/dashboards/widgets/top_list.md @@ -23,7 +23,7 @@ La visualización de lista principal te permite mostrar una lista de los valores ### Configuración -1. Elige los datos para graficar: +1. Elige los datos para los que crear gráficas: * Métrica: consulta la documentación [querying (consulta)][1] para configurar una consulta métrica. * Fuentes de datos de no métrica: consulta la [Trace search documentation (documentación de búsqueda de rastreo)][2] o [Log search documentation (documentación de búsqueda de log)][3] para configurar una consulta de evento. @@ -42,7 +42,7 @@ Configurar las funciones del Modo de visualización opcional para añadir contex #### Enlaces contextuales -Los [Context links (enlaces contextuales)][4] están activados por defecto y pueden activarse o desactivarse. Los enlaces contextuales sirven de puente entre widgets de dashboard con otras páginas de Datadog, o con aplicaciones de terceros. +Los [enlaces contextuales][4] están activados por defecto y pueden activarse o desactivarse. Los enlaces contextuales sirven de puente entre widgets de dashboard con otras páginas de Datadog, o con aplicaciones de terceros. #### Hora mundial @@ -50,7 +50,7 @@ En los screenboards y notebooks, elige si tu widget tiene un marco temporal pers ## API -Este widget puede utilizarse con la **[Dashboards API (API de dashboards)][5]**. Ve la siguiente tabla para la [widget JSON schema definition (definición del esquema JSON widget][6]: +Este widget se puede utilizar con la **[API de dashboards][5]**. Consulta la siguiente tabla para obtener la [definición del esquema JSON del widget)][6]: {{< dashboards-widgets-api >}} diff --git a/content/es/data_security/guide/tls_deprecation_1_2.md b/content/es/data_security/guide/tls_deprecation_1_2.md index b68dcb016ee81..5e37f0b1e6d29 100644 --- a/content/es/data_security/guide/tls_deprecation_1_2.md +++ b/content/es/data_security/guide/tls_deprecation_1_2.md @@ -1,5 +1,4 @@ --- -kind: Guía title: Aviso de obsolescencia del TLS para versiones anteriores a la v1.2 --- diff --git a/content/es/data_streams/go.md b/content/es/data_streams/go.md index 4864aba343c93..cc350a8074f49 100644 --- a/content/es/data_streams/go.md +++ b/content/es/data_streams/go.md @@ -2,111 +2,88 @@ title: Configurar la monitorización de secuencias de datos para Go --- -{{< site-region region="ap1" >}} -
La monitorización de secuencias de datos no es compatible en la región AP1.
-{{< /site-region >}} - ### Requisitos previos -Para empezar con la monitorización de secuencias de datos, necesitas versiones recientes de las bibliotecas del Datadog Agent y Data Streams Monitoring: -* [Datadog Agent 7.34.0 y versiones posteriores][1] -* [Data Streams Library 0.2 y versiones posteriores][2] +Para empezar con Data Streams Monitoring, necesitas versiones recientes de las bibliotecas del Datadog Agent y de Data Streams Monitoring: +* [Datadog Agent v7.34.0 o más reciente][1] +* [dd-trace-go v1.56.1 o más reciente][2] ### Instalación -Inicia una ruta de secuencias de datos con `datastreams.Start()` al principio de tu pipeline. +- Configura la variable de entorno `DD_DATA_STREAMS_ENABLED=true`. +- [Inicia el rastreador][3]. Existen dos tipos de instrumentación: - Instrumentación para cargas de trabajo basadas en Kafka -- Instrumentación personalizada para cualquier otro protocolo o tecnología de colas - -
La URL predeterminada del Agent de trazas es localhost:8126. Si esta es distinta para tu aplicación, usa la opción datastreams.Start(datastreams.WithAgentAddr("notlocalhost:8126")).
- -### Instrumentación de Kafka - -1. Configura los productores para que llamen a `TraceKafkaProduce()` antes de enviar un mensaje de Kafka: - - ```go - import (ddkafka "github.com/DataDog/data-streams-go/integrations/kafka") - ... - ctx = ddkafka.TraceKafkaProduce(ctx, &kafkaMsg) - ``` +- Instrumentación personalizada para cualquier otra tecnología o protocolo de puesta en cola - Esta función añade un nuevo punto de control a cualquier ruta existente en el contexto de Go proporcionado, o crea una nueva ruta si no se encuentra ninguna. A continuación, añade la ruta en los encabezados de tus mensajes de Kafka. +### Cliente de Confluent Kafka -2. Configura los consumidores para llamar a `TraceKafkaConsume()`: +```ir +importar ( + ddkafka "gopkg.in/DataDog/dd-trace-go.v1/contrib/confluentinc/confluent-kafka-go/kafka.v2" +) - ```go - import ddkafka "github.com/DataDog/data-streams-go/integrations/kafka" - ... - ctx = ddkafka.TraceKafkaConsume(ctx, &kafkaMsg, consumer_group) - ``` +... +// CREA UN PRODUCTOR CON ESTA ENVOLTURA +productor, error:= ddkafka.NewProducer(&kafka.ConfigMap{ + "bootstrap.servers": bootStrapServers, +}, ddkafka.WithDataStreams()) - Esta función extrae la ruta por la que ha transcurrido un mensaje de Kafka hasta el momento. Establece un nuevo punto de control en la ruta para registrar el consumo de un mensaje y almacena la ruta en el contexto de Go proporcionado. +``` - **Nota**: Tanto la salida `ctx` desde `TraceKafkaProduce()` como la salida `ctx` desde `TraceKafkaConsume()` contienen información sobre la ruta actualizada. +Si un servicio consume datos de un punto y produce a otro punto, propague el contexto entre los dos lugares utilizando la estructura de contexto de Go: +1. Extraer el contexto de los encabezados: + ```go + ctx = datastreams.ExtractFromBase64Carrier(ctx, ddsarama.NewConsumerMessageCarrier(message)) + ``` -Para `TraceKafkaProduce()`, si envías varios mensajes de Kafka a la vez (fan-out), no reutilices el `ctx` de salida entre llamadas. +2. Insértelo en el encabezado antes de producir aguas abajo: + ```go + datastreams.InjectToBase64Carrier(ctx, ddsarama.NewProducerMessageCarrier(message)) + ``` -Para `TraceKafkaConsume()`, si añades varios mensajes para crear un número menor de cargas útiles (fan-in), llama a `MergeContext()` para fusionar los contextos en uno solo que pueda pasarse a la siguiente llamada `TraceKafkaProduce()`: +### Cliente de Sarama Kafka -```go -import ( - datastreams "github.com/DataDog/data-streams-go" - ddkafka "github.com/DataDog/data-streams-go/integrations/kafka" +```ir +importar ( + ddsarama "gopkg.in/DataDog/dd-trace-go.v1/contrib/Shopify/sarama" ) ... +configurar:= sarama.NewConfig() +productor, error:= sarama.NewAsyncProducer([]string{bootStrapServers}, config) -contexts := []Context{} -for (...) { - contexts.append(contexts, ddkafka.TraceKafkaConsume(ctx, &consumedMsg, consumer_group)) -} -mergedContext = datastreams.MergeContexts(contexts...) - -... - -ddkafka.TraceKafkaProduce(mergedContext, &producedMsg) +// AÑADE ESTA LÍNEA +productor = ddsarama.WrapAsyncProducer(config, producer, ddsarama.WithDataStreams()) ``` ### Instrumentación manual -También puedes utilizar la instrumentación manual. Por ejemplo, en HTTP, es posible propagar la ruta con cabeceras HTTP. +También puedes utilizar la instrumentación manual. Por ejemplo, puedes propagar el contexto a través de Kinesis. -Para insertar una ruta: +#### Instrumentación de la llamada a producción -```go -req, err := http.NewRequest(...) -... -p, ok := datastreams.PathwayFromContext(ctx) -if ok { - req.Headers.Set(datastreams.PropagationKeyBase64, p.EncodeStr()) -} -``` +1. Asegúrate de que tu mensaje sea compatible con la [interfaz TextMapWriter](https://github.com/DataDog/dd-trace-go/blob/main/datastreams/propagation.go#L37). +2. Inserta el contexto en tu mensaje e instrumenta la llamada a producción llamando a: -Para extraer una ruta: - -```go -func extractPathwayToContext(req *http.Request) context.Context { - ctx := req.Context() - p, err := datastreams.DecodeStr(req.Header.Get(datastreams.PropagationKeyBase64)) - if err != nil { - return ctx - } - ctx = datastreams.ContextWithPathway(ctx, p) - _, ctx = datastreams.SetCheckpoint(ctx, "type:http") +```ir +ctx, ok := tracer.SetDataStreamsCheckpointWithParams(ctx, options.CheckpointParams{PayloadSize: getProducerMsgSize(msg)}, "direction:out", "type:kinesis", "topic:kinesis_arn") +si ok { + datastreams.InjectToBase64Carrier(ctx, message) } + ``` -### Añadir una dimensión +#### Instrumentación de la llamada al consumo -Puedes añadir una dimensión adicional a las métricas de latencia de extremo a extremo con la etiqueta `event_type`: +1. Asegúrate de que tu mensaje sea compatible con la [interfaz TextMapReader](https://github.com/DataDog/dd-trace-go/blob/main/datastreams/propagation.go#L44). +2. Extrae el contexto de tu mensaje e instrumenta la llamada a consumir llamando a: -```go -_, ctx = datastreams.SetCheckpoint(ctx, "type:internal", "event_type:sell") +```ir + ctx, ok := tracer.SetDataStreamsCheckpointWithParams(datastreams.ExtractFromBase64Carrier(context.Background(), message), options.CheckpointParams{PayloadSize: payloadSize}, "direction:in", "type:kinesis", "topic:kinesis_arn") ``` -Basta con añadir la etiqueta `event_type` para el primer servicio en cada ruta. Los datos de alta cardinalidad (como hosts o ID de solicitud) no se admiten como valores para la etiqueta `event_type`. - [1]: /es/agent -[2]: https://github.com/DataDog/data-streams-go \ No newline at end of file +[2]: https://github.com/DataDog/dd-trace-go +[3]: https://docs.datadoghq.com/es/tracing/trace_collection/library_config/go/ \ No newline at end of file diff --git a/content/es/data_streams/java.md b/content/es/data_streams/java.md new file mode 100644 index 0000000000000..54c89c2bc635e --- /dev/null +++ b/content/es/data_streams/java.md @@ -0,0 +1,62 @@ +--- +further_reading: +- link: /integrations/kafka/ + tag: Documentación + text: Integración de Kafka +- link: /tracing/service_catalog/ + tag: Documentación + text: Catálogo de servicios +title: Configurar la monitorización de flujos (streams) de datos para Java +--- + +{{< site-region region="ap1" >}} +
Monitorización de Secuencias de Datos no es compatible con la región AP1.
+{{< /site-region >}} + +### Requisitos previos + +Para empezar con la monitorización de flujos de datos, necesitas las versiones recientes de las bibliotecas del Datadog Agent y Java: +* [Datadog Agent v7.34.0 o más reciente][1] +* [APM habilitado con el Java Agent ][2] + * Kafka y RabbitMQ: v1.9.0 o posterior + * Amazon SQS: v1.27.0 o posterior + +### Instalación + +Java utiliza la instrumentación automática para inyectar y extraer metadatos adicionales requeridos por la monitorización de flujos de datos para medir latencias de extremo a extremo y la relación entre colas y servicios. Para habilitar la monitorización de flujos de datos, configura la variable de entorno `DD_DATA_STREAMS_ENABLED` en `true` en servicios que envían mensajes a (o que consumen mensajes de) Kafka, SQS o RabbitMQ. + +Además, configura la variable `DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED` en `true` de modo que `DD_SERVICE` se utilice como nombre de servicio en trazas (traces). + +Por ejemplo: +```yaml +entorno: + - DD_DATA_STREAMS_ENABLED: "true" + - DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED: "true" +``` + +Como alternativa, puedes configurar la propiedad del sistema `-Ddd.data.streams.enabled=true` ejecutando lo siguiente cuando inicies tu aplicación Java: + +```bash +java -javaagent:/path/to/dd-java-agent.jar -Ddd.data.streams.enabled=true -Ddd.trace.remove.integration-service-names.enabled=true -jar path/to/your/app.jar +``` + +### Instalación con un solo clic +Para configurar la monitorización de flujos de datos desde la interfaz de usuario Datadog sin necesidad de reiniciar tu servicio, utiliza la [Configuración en el tiempo de ejecución][5]. Ve a la página de servicios de APM y `Enable DSM`. + +{{< img src="data_streams/enable_dsm_service_catalog.png" alt="Habilita la monitorización de flujos de datos desde la sección Dependencias de la página de servicios de APM" >}} + +### Bibliotecas compatibles +La monitorización de flujos de datos es compatible con la [biblioteca de confluent-kafka][3]. + +### Monitorización de pipelines de SQS +La monitorización de flujos de datos utiliza un [atributo de mensaje][4] para rastrear la ruta de un mensaje a través de una cola SQS. Como Amazon SQS tiene un límite máximo de 10 atributos de mensaje permitidos por mensaje, todos los mensajes transmitidos a través de los pipelines de datos deben tener 9 o menos atributos de mensaje configurados, lo que permite el atributo restante para la monitorización de flujos de datos. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/agent +[2]: /es/tracing/trace_collection/dd_libraries/java/ +[3]: https://pypi.org/project/confluent-kafka/ +[4]: https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-message-metadata.html +[5]: /es/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration \ No newline at end of file diff --git a/content/es/developers/dogstatsd/datagram_shell.md b/content/es/developers/dogstatsd/datagram_shell.md index dee8a4a13783d..8fbed080959bc 100644 --- a/content/es/developers/dogstatsd/datagram_shell.md +++ b/content/es/developers/dogstatsd/datagram_shell.md @@ -1,7 +1,7 @@ --- aliases: - /es/developers/dogstatsd/data_types/ -description: Información general del formato de datagramas utilizado por DogStatsD, +description: Información general sobre el formato de datagramas utilizado por DogStatsD, así como del uso (avanzado) de shells. further_reading: - link: developers/dogstatsd @@ -9,13 +9,13 @@ further_reading: text: Introducción a DogStatsD - link: developers/libraries tag: Documentación - text: API oficial y creada por la comunidad, y bibliotecas de clientes DogStatsD + text: API oficial y creada por la comunidad y bibliotecas de cliente de DogStatsD title: Formato de datagramas y uso de shells --- Esta sección especifica el formato de datagramas sin procesar para métricas, eventos y checks de servicios compatibles con DogStatsD. Los datagramas sin procesar están codificados en UTF-8. Esta sección no es de lectura obligatoria, si estás utilizando cualquiera de las [bibliotecas de clientes DogStatsD][1]. Pero si quieres escribir tu propia biblioteca o utilizar el shell para enviar métricas, entonces sigue leyendo. -## Protocolo DogStatsD +## Protocolo de DogStatsD {{< tabs >}} {{% tab "Metrics" (Métricas) %}} @@ -24,11 +24,11 @@ Esta sección especifica el formato de datagramas sin procesar para métricas, e | Parámetro | Obligatorio | Descripción | | ----------------------------------- | -------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| `` | Sí | Cadena que sólo contiene caracteres alfanuméricos ASCII, guiones bajos y puntos. Consulta la [política sobre nombres de métricas][101]. | +| `` | Sí | Cadena que sólo contiene caracteres alfanuméricos ASCII, guiones bajos y puntos. Consulta la [política relativa a los nombres de métricas][101]. | | `` | Sí | Número entero o flotante. | -| `` | Sí | `c` para COUNT (Recuento), `g` para GAUGE (Indicador), `ms` para TIMER (Temporizador), `h` para HISTOGRAM (Histograma), `s` para SET (Configurar), `d` para DISTRIBUTION (Distribución). Para ver más detalles, consulta [Tipos de métricas][102]. | -| ``ONSULTA | No | Un valor flotante entre `0` y `1`, inclusive. Sólo funciona con las métricas COUNT, HISTOGRAM, DISTRIBUTION, y TIMER. El valor por defecto es `1`, que muestrea el 100% del tiempo. | -| `:,` | No | Lista de cadenas separadas por comas. Utiliza dos puntos para etiquetas (tags) (`env:prod`) de clave/valor. Para más información sobre la definición de etiquetas (tags), consulta [Empezando con las etiquetas][103]. | +| `` | Sí | `c` para COUNT (Recuento), `g` para GAUGE (Indicador), `ms` para TIMER (Temporizador), `h` para HISTOGRAM (Histograma), `s` para SET (Conjunto), `d` para DISTRIBUTION (Distribución). Para ver más detalles, consulta [Tipos de métricas][102]. | +| `` | No | Un valor flotante entre `0` y `1`, inclusive. Sólo funciona con las métricas COUNT, HISTOGRAM, DISTRIBUTION, y TIMER. El valor por defecto es `1`, que muestrea el 100% del tiempo. | +| `:,` | No | Lista de cadenas separadas por comas. Utiliza dos puntos para etiquetas (tags) (`env:prod`) de clave/valor. Para más información sobre la definición de etiquetas, consulta [Empezando con las etiquetas][103]. | Los siguientes son algunos ejemplos de datagramas: @@ -39,14 +39,14 @@ Los siguientes son algunos ejemplos de datagramas: - `users.online:1|c|#country:china`: incrementa la métrica y la etiqueta COUNT de los usuarios activos por país de origen. - `users.online:1|c|@0.5|#country:china`: realiza un seguimiento de los usuarios activos de China y utiliza una frecuencia de muestreo. -### Protocolo DogStatsD v1.1 +### Protocolo de DogStatsD v1.1 A partir del Agent `>=v6.25.0` y `=v7.25.0`, es posible empaquetar valores. Esta opción es compatible con todos los tipos de métricas, excepto `SET`. Los valores se separan mediante un `:`, por ejemplo: `:::||@|#:,` -`TYPE`, `SAMPLE_RATE` y `TAGS` se comparten entre todos los valores. Esto produce la misma métrica que el envío de múltiples +`TYPE`, `SAMPLE_RATE` y `TAGS` se comparten entre todos los valores. Esto genera las mismas métricas que el envío de múltiples mensajes con un valor en cada uno. Esto es útil para las métricas HISTOGRAM, TIMING y DISTRIBUTION. ### Ejemplo de datagramas @@ -54,7 +54,7 @@ mensajes con un valor en cada uno. Esto es útil para las métricas HISTOGRAM, T - `page.views:1:2:32|d`: realiza un muestreo de la métrica DISTRIBUTION `page.views` tres veces con los valores `1`, `2` y `32`. - `song.length:240:234|h|@0.5`: realiza un muestreo del histograma `song.length` como si se enviara la mitad del tiempo, dos veces. A cada valor se le aplica la frecuencia de muestreo de `0.5`. -### Protocolo DogStatsD v1.2 +### Protocolo de DogStatsD v1.2 A partir del Agent `>=v6.35.0` y `=v7.35.0`, se admite un nuevo campo de ID de contenedor. El Datadog Agent utiliza el valor del ID de contenedor para enriquecer las métricas de DogStatsD con etiquetas de contenedor adicionales. @@ -63,29 +63,29 @@ El ID de contenedor lleva el prefijo `c:`, por ejemplo: `:||#:,|c:` -**Nota:** Configura `dogstatsd_origin_detection_client` como `true` en tu archivo `datadog.yaml` o la variable de entorno `DD_DogStatsD_ORIGIN_DETECTION_CLIENT=true` para indicar al Datadog Agent que extraiga el campo del ID de contenedor y adjuntar las etiquetas de contenedor correspondientes. +**Nota:** Configura `dogstatsd_origin_detection_client` como `true` en tu archivo `datadog.yaml` o la variable de entorno `DD_DOGSTATSD_ORIGIN_DETECTION_CLIENT=true` para indicar al Datadog Agent que extraiga el campo del ID de contenedor y adjunte las etiquetas de contenedor correspondientes. ### Ejemplo de datagramas - `page.views:1|g|#env:dev|c:83c0a99c0a54c0c187f461c7980e9b57f3f6a8b0c918c8d93df19a9de6f3fe1d`: el Datadog Agent añade etiquetas de contenedor como `image_name` y `image_tag` a la métrica `page.views`. -Para obtener más información sobre las etiquetas de contenedor, consulta la documentación sobre el etiquetado [Kubernetes][104] y [Docker][105]. +Para obtener más información sobre las etiquetas de contenedor, consulta la documentación sobre el etiquetado en [Kubernetes][104] y [Docker][105]. -### Protocolo DogStatsD v1.3 +### Protocolo de DogStatsD v1.3 -Los Agents v6.40.0 y v7.40.0 y posteriores admiten un campo de marca temporal Unix opcional. +Los Agents v6.40.0 y v7.40.0 y posteriores admiten un campo de marca de tiempo Unix opcional. Cuando se proporciona este campo, el Datadog Agent no procesa ninguna métrica (sin agregación) y sólo se limita a enriquecer los métricas con etiquetas. Esto puede ser útil si ya estabas agregando tus métricas en tu aplicación y quieres enviarlas a Datadog sin ningún procesamiento adicional. La marca de tiempo Unix debe ser un número positivo válido en el pasado. Sólo se admiten métricas GAUGE y COUNT. -El valor es una marca de tiempo Unix (UTC) y debe tener el prefijo `T`, por ejemplo: +El valor es una marca de tiempo Unix (UTC) y debe llevar el prefijo `T`, por ejemplo: `:||#:,|T` ### Ejemplo de datagramas -- `page.views:15|c|#env:dev|T1656581400`: un COUNT indicando que 15 vistas de páginas ocurrieron el 30 de junio de 2022 a las 9:30 UTC +- `page.views:15|c|#env:dev|T1656581400`: una métrica COUNT que indica que 15 vistas de páginas ocurrieron el 30 de junio de 2022 a las 9:30 UTC [101]: /es/metrics/#metric-name [102]: /es/metrics/types/ @@ -104,7 +104,7 @@ El valor es una marca de tiempo Unix (UTC) y debe tener el prefijo `T`, por ejem | `` | Sí | Texto del evento. Inserta saltos de línea con: `\\n`. | | `` | Sí | Longitud (en bytes) del `` del archivo codificado en UTF-8 | | `<TEXT_UTF8_LENGTH>` | Sí | Longitud (en bytes) del `<TEXT>` del archivo codificado en UTF-8 | -| `d:<TIMESTAMP>` | No | Añade una marca de tiempo al evento. El valor predeterminado es la marca de tiempo Unix actual. | +| `d:<TIMESTAMP>` | No | Añade una marca de tiempo al evento. El valor predeterminado es la marca temporal Unix actual. | | `h:<HOSTNAME>` | No | Añade un nombre de host al evento. Por defecto es la instancia del Datadog Agent. | | `k:<AGGREGATION_KEY>` | No | Añade una clave de agregación para agrupar el evento con otros que tengan la misma clave. No existen valores por defecto. | | `p:<PRIORITY>` | No | Configura como `normal` o `low`. El valor por defecto es `normal`. | @@ -133,9 +133,9 @@ Se ha producido una excepción. No se puede analizar la solicitud:\\n{"foo: "bar | `<NAME>` | Sí | Nombre del check de servicio. | | `<STATUS>` | Sí | Número entero correspondiente al estado del check (OK = `0`, WARNING (Advertencia) = `1`, CRITICAL (Crítico) = `2`, UNKNOWN (Desconocido) = `3`). | | `d:<TIMESTAMP>` | No | Añade una marca de tiempo al check. El valor predeterminado es la marca de tiempo Unix actual. | -| `h:<HOSTNAME>` | No | Añade un nombre de host al evento (no por defecto). | -| `#<TAG_KEY_1>:<TAG_VALUE_1>,<TAG_2>` | No | Configura las etiquetas del evento. Una lista de cadenas separadas por coma (no por defecto). | -| `m:<SERVICE_check_MESSAGE>` | No | Mensaje que describe el estado actual del check de servicio. Este campo debe situarse en último lugar entre los campos de metadatos (sin valor por defecto). | +| `h:<HOSTNAME>` | No | Añade un nombre de host al evento (no existen valores por defecto). | +| `#<TAG_KEY_1>:<TAG_VALUE_1>,<TAG_2>` | No | Configura las etiquetas del evento. Una lista de cadenas separadas por comas (no existen valores por defecto). | +| `m:<SERVICE_CHECK_MESSAGE>` | No | Mensaje que describe el estado actual del check de servicio. Este campo debe situarse en último lugar entre los campos de metadatos (no existen valores por defecto). | El siguiente es un ejemplo de datagrama: @@ -158,11 +158,11 @@ DogStatsD crea un mensaje que contiene información sobre tu métrica, evento o El formato para enviar métricas es: -``texto +``text <METRIC_NAME>:<VALUE>|<TYPE>|@<SAMPLE_RATE>|#<TAG_KEY_1>:<TAG_VALUE_1>,<TAG_2> ``` -Los siguientes ejemplos envían puntos de datos para una métrica gauge llamada `custom_metric` con la etiqueta `shell`. +Los siguientes ejemplos envían puntos de datos para una métrica GAUGE llamada `custom_metric` con la etiqueta `shell`. En Linux: @@ -184,7 +184,7 @@ En Windows: PS C:\> .\send-statsd.ps1 "custom_metric:123|g|#shell" ``` -En cualquier plataforma con Python (en Windows, se puede utilizar el intérprete Python integrado del Agent, que se encuentra en `%ProgramFiles%\Datadog\Datadog Agent\embedded\python.exe`, para el Agent versión 6.11 y anteriores, y en `%ProgramFiles%\Datadog\Datadog Agent\embedded<Python_MAJOR_VERSION>\python.exe`, para el Agent versión 6.12 y posteriores): +En cualquier plataforma con Python (en Windows, se puede utilizar el intérprete Python integrado del Agent, que se encuentra en `%ProgramFiles%\Datadog\Datadog Agent\embedded\python.exe`, para el Agent versión 6.11 y anteriores, y en `%ProgramFiles%\Datadog\Datadog Agent\embedded<PYTHON_MAJOR_VERSION>\python.exe`, para el Agent versión 6.12 y posteriores): ### Python 2 @@ -207,7 +207,7 @@ sock.sendto("custom_metric:60|g|#shell", ("localhost", 8125)) El formato para enviar eventos es: -```texto +```text _e{<TITLE>.length,<TEXT>.length}:<TITLE>|<TEXT>|d:<DATE_EVENT>|h:<HOSTNAME>|p:<PRIORITY>|t:<ALERT_TYPE>|#<TAG_KEY_1>:<TAG_VALUE_1>,<TAG_2>. ``` @@ -236,7 +236,7 @@ PS C:> .\send-statsd.ps1 "_e{$($title.length),$($text.Length)}:$title|$text|#she El formato para enviar checks de servicios es: -```texto +```text _sc|<NAME>|<STATUS>|d:<TIMESTAMP>|h:<HOSTNAME>|#<TAG_KEY_1>:<TAG_VALUE_1>|m:<SERVICE_CHECK_MESSAGE> ``` diff --git a/content/es/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md b/content/es/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md index 4a0352d797657..8667d32c792b2 100644 --- a/content/es/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md +++ b/content/es/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md @@ -26,7 +26,6 @@ La convención de nomenclatura es un arte y posiblemente una de las decisiones m * Solo puede contener caracteres alfanuméricos ASCII, guiones bajos y puntos. Los demás caracteres se convierten en guiones bajos. * No debe superar los 200 caracteres (aunque, desde el punto de vista de la interfaz de usuario, es preferible que tenga menos de 100). * No se admite Unicode. -* Es recomendado para evitar espacios. Las métricas informadas por el Agent tienen un formato pseudojerárquico de puntos, por ejemplo: `http.nginx.response_time`. Se describe como pseudojerárquico porque en realidad no se impone una jerarquía, pero la estructura se utiliza para inferir ciertas relaciones, por ejemplo: "_Veo que hostA y hostB informan de `http.nginx.*`, deben ser frontend web"_). @@ -46,7 +45,7 @@ Datadog recomienda utilizar el etiquetado de servicios unificado al asignar etiq Ejemplos de claves de etiqueta de métrica comunes son `instance`, `name` y `role`. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/getting_started/incident_management/_index.md b/content/es/getting_started/incident_management/_index.md index 747c953514189..5e8b0b1de8d12 100644 --- a/content/es/getting_started/incident_management/_index.md +++ b/content/es/getting_started/incident_management/_index.md @@ -191,7 +191,7 @@ Asimismo, puedes declarar y editar incidencias y comunicarte rápidamente con tu {{< img src="service_management/incidents/incidents-list-mobile.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Monitores en Mobile App">}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -206,7 +206,7 @@ Asimismo, puedes declarar y editar incidencias y comunicarte rápidamente con tu [9]: /es/service_management/incident_management/#status-levels [10]: /es/service_management/incident_management/incident_settings [11]: https://app.datadoghq.com/incidents/settings -[12]: /es/service_management/mobile/ +[12]: /es/mobile/ [13]: https://apps.apple.com/app/datadog/id1391380318 [14]: https://play.google.com/store/apps/details?id=com.datadog.app [15]: https://app.datadoghq.com/dashboard/lists diff --git a/content/es/integrations/google_cloud_run.md b/content/es/integrations/google_cloud_run.md new file mode 100644 index 0000000000000..27a9c5c8bfb3f --- /dev/null +++ b/content/es/integrations/google_cloud_run.md @@ -0,0 +1,105 @@ +--- +categories: +- nube +- contenedores +- nube de Google +- colección de logs +- orquestación +custom_kind: integración +dependencies: [] +description: Recopila métricas, trazas (traces) y logs de todo tus clústeres y analízalos + en Datadog. +doc_link: https://docs.datadoghq.com/integrations/google_cloud_run/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/monitor-google-cloud-run-with-datadog/ + tag: Blog + text: Monitoriza Google Cloud Run con Datadog +- link: https://docs.datadoghq.com/integrations/google_cloud_run_for_anthos/ + tag: Documentación + text: Google Cloud Run para Anthos +git_integration_title: google_cloud_run +has_logo: true +integration_id: google-cloud-run +integration_title: Google Cloud Run +integration_version: '' +is_public: true +manifest_version: '1.0' +name: google_cloud_run +public_title: Integración de Datadog y Google Cloud Run +short_description: Recopila métricas, trazas (traces) y logs de todos tus clústeres + y analízalos en Datadog. +version: '1.0' +--- + +<!-- CON ORIGEN EN https://github.com/DataDog/dogweb --> +## Información general + +Cloud Run es una plataforma de computación administrada que permite ejecutar contenedores sin estado invocables mediante solicitudes HTTP. + +Habilita esta integración e instrumenta tu contenedor para ver todas tus métricas, trazas (traces) y logs de Cloud Run en Datadog. + +Para más información sobre Cloud Run para Anthos, consulta la [documentación de Google Cloud Run para Anthos][1]. + +## Configuración + +### Recopilación de métricas + +#### Instalación + +Configura la [integración de Google Cloud Platform][2] para empezar a recopilar métricas de forma predefinida. Para configurar <txprotected>métricas personalizadas</txprotected>consulta la [documentación serverless ][3]. + +### APM + +#### integración +Google Cloud Run también expone [logs de auditoría][4]. +Los logs de Google Cloud Run se recopilan con Google Cloud Logging y se envían a un trabajo de Dataflow a través de un tema Cloud Pub/Sub. Si todavía no lo has hecho, [configura el registro con la plantilla Datadog Dataflow][5]. + +Una vez hecho esto, exporta tus logs de Google Cloud Run logs desde Google Cloud Logging al tema Pub/Sub: + +1. Ve a la [página de Google Cloud Logging][6] y filtra los logs de Google Cloud Run. +2. Haz clic en **Crear receptor** y asigna el nombre correspondiente al receptor. +3. Elige "Cloud Pub/Sub" como destino y selecciona el tema Pub/Sub creado para tal fin. **Nota**: El tema Pub/Sub puede estar ubicado en un proyecto diferente. + + {{< img src="integrations/google_cloud_pubsub/creating_sink2.png" alt="Exportar logs de Google Cloud Pub/Sub Logs a Pub Sub" >}} + +4. Haz clic en **Crear** y espera a que aparezca el mensaje de confirmación. + +#### Registro directo +Para más información sobre el registro directo de aplicaciones en Datadog desde tus servicios de Cloud Run, consulta la [documentación serverless ][3]. + +### Rastreo + +Para obtener más información sobre las instrucciones de configuración especializadas del Agent para Google Cloud Run totalmente administrado, consulta la [documentación serverless][3]. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "google_cloud_run" >}} + + +### Eventos + +La integración de las funciones de Google Cloud no incluye ningún evento. + +### Checks de servicios + +La integración de las funciones de Google Cloud no incluye ningún check de servicios. + + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://docs.datadoghq.com/es/integrations/google_cloud_run_for_anthos/ +[2]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/ +[3]: https://docs.datadoghq.com/es/serverless/google_cloud_run +[4]: https://cloud.google.com/run/docs/audit-logging +[5]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/#log-collection +[6]: https://console.cloud.google.com/logs/viewer +[7]: https://github.com/DataDog/dogweb/blob/prod/integration/google_cloud_run/google_cloud_run_metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/guide/source-code-integration.md b/content/es/integrations/guide/source-code-integration.md new file mode 100644 index 0000000000000..8cefccc76f244 --- /dev/null +++ b/content/es/integrations/guide/source-code-integration.md @@ -0,0 +1,581 @@ +--- +description: Configura la integración del código fuente que se integra con APM para + vincular tu telemetría con tus repositorios, incorporar información git en artefactos + de tu pipeline CI y utilizar la integración GitHub para generar fragmentos de código + en línea. +further_reading: +- link: /integrations/github/ + tag: Documentación + text: Más información sobre la integración GitHub +- link: /tracing/error_tracking/ + tag: Documentación + text: Más información sobre el seguimiento de errores para servicios de backend +- link: /profiler/ + tag: Documentación + text: Más información sobre el Continuous Profiler +- link: /serverless/aws_lambda/configuration/?tab=datadogcli#link-errors-to-your-source-code + tag: Documentación + text: Más información sobre la monitorización serverless +- link: /tests/developer_workflows/ + tag: Documentación + text: Más información sobre la visibilidad de los tests +- link: /code_analysis/ + tag: Documentación + text: Más información sobre el análisis de código +- link: /security/application_security/ + tag: Documentación + text: Más información sobre Application Security Monitoring +- link: /logs/error_tracking/ + tag: Documentación + text: Más información sobre el seguimiento de errores para logs +- link: https://www.datadoghq.com/blog/live-debugging/ + tag: Blog + text: Solucionar eficazmente los errores de producción con la depuración en directo + de Datadog +title: Integración del código fuente de Datadog +--- + +## Información general + +La integración del código fuente de Datadog te permite conectar tu telemetría con tus repositorios Git. Permite depurar la trazas (traces) de stack tecnológico, perfiles lentos y otros problemas accediendo a las líneas pertinentes de tu código fuente. + +{{< img src="integrations/guide/source_code_integration/inline-code-snippet.png" alt="Fragmento de código en línea de una clase RuntimeException de Java, con un botón para visualizar el código en GitHub" style="width:100%;">}} + + +## Configuración + +Se requiere el Datadog Agent v7.35.0 o posterior. + +Si ya tienes [APM][6] configurado, ve a [**Integraciones** > **Vincular código fuente**][7] y configura la integración del código fuente para tus servicios de backend. + +## Etiquetado de tu telemetría con información Git + +Tu telemetría debe estar etiquetada con información Git que vincule la versión de la aplicación en ejecución con un repositorio y una confirmación concretos. + +Para los lenguajes compatibles, Datadog recomienda [integrar información Git](#embed-git-information-in-your-build-artifacts) en los artefactos desplegados, que luego es extraída por las [bibliotecas de rastreo de Datadog][9] automáticamente. + +Para otros lenguajes y configuraciones, puedes [configurar el etiquetado de la telemetría](#configure-telemetry-tagging) tú mismo. + +### Integrar información Git en tus artefactos de compilación + +Puedes integrar la URL del repositorio y el hash de confirmación en tu artefacto de compilación. Las [bibliotecas de rastreo de Datadog][9] utilizan esta información para añadir automáticamente las etiquetas (tags) correctas a la telemetría de tu servicio APM. + +Selecciona uno de los siguientes lenguajes que sea compatible con la integración de información Git: + +{{< tabs >}} +{{% tab "Go" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente Go versión 1.48.0 o posterior.</div> + +#### Contenedores + +Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Docker + +{{% sci-docker %}} + +##### Opción 2: Biblioteca de rastreo de Datadog + +{{% sci-dd-tracing-library %}} + +##### Opción 3: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Serverless + +Si utilizas la opción serverless, tienes tres opciones en función de la configuración de tu aplicación serverless. + +##### Opción 1: Herramientas de Datadog + +{{% sci-dd-serverless %}} + +##### Opción 2: Biblioteca de rastreo de Datadog + +{{% sci-dd-tracing-library %}} + +##### Opción 3: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Host + +Si utilizas un host, tienes dos opciones. + +##### Opción 1: Biblioteca de rastreo de Datadog + +{{% sci-dd-tracing-library %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +[101]: https://tip.golang.org/doc/go1.18 +[102]: https://www.npmjs.com/package/@datadog/datadog-ci +[103]: https://docs.datadoghq.com/es/serverless/libraries_integrations/plugin/ +[104]: https://github.com/DataDog/datadog-cdk-constructs + +{{% /tab %}} + +{{% tab "Python" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente Python versión 1.12.0 o posterior.</div> + +#### Contenedores + +Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Docker + +{{% sci-docker %}} + +##### Opción 2: Herramientas de configuración o archivo de parámetros unificados del proyecto Python + +{{% sci-dd-setuptools-unified-python %}} + +##### Opción 3: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +[101]: https://github.com/DataDog/dd-trace-go +[102]: https://github.com/DataDog/hatch-datadog-build-metadata#readme + +#### Serverless + +Si utilizas la opción serverless, tienes tres opciones en función de la configuración de tu aplicación serverless. + +##### Opción 1: Herramientas de Datadog + +{{% sci-dd-serverless %}} + +##### Opción 2: Herramientas de configuración o archivo de parámetros unificados del proyecto Python + +{{% sci-dd-setuptools-unified-python %}} + +##### Opción 3: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Host + +Si utilizas un host, tienes dos opciones. + +##### Opción 2: Herramientas de configuración o archivo de parámetros unificados del proyecto Python + +{{% sci-dd-setuptools-unified-python %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +{{% /tab %}} +{{% tab ".NET" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente .NET versión 2.24.1 o posterior.</div> + +#### Contenedores + +Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Docker + +{{% sci-docker %}} + +##### Opción 2: Microsoft SourceLink + +{{% sci-microsoft-sourcelink %}} + +##### Opción 3: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Serverless + +Si utilizas la opción serverless, tienes tres opciones en función de la configuración de tu aplicación serverless. + +##### Opción 1: Herramientas de Datadog + +{{% sci-dd-serverless %}} + +##### Opción 2: Microsoft SourceLink + +{{% sci-microsoft-sourcelink %}} + +##### Opción 3: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Host + +Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Microsoft SourceLink + +{{% sci-microsoft-sourcelink %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +{{% /tab %}} +{{% tab "NodeJS" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente NodeJS versión 3.21.0 o posterior.</div> + +#### Contenedores + +Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Docker + +{{% sci-docker %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Serverless + +Si utilizas la opción serverless, tienes dos opciones en función de la configuración de tu aplicación serverless. + +##### Opción 1: Herramientas de Datadog + +{{% sci-dd-serverless %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Host + +Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`. + +{{% sci-dd-git-env-variables %}} + +{{% /tab %}} +{{% tab "Ruby" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente Ruby versión 1.6.0 o posterior.</div> + +#### Contenedores + +Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configurar tu aplicación con la variable de entorno `DD_TAGS`. + +##### Opción 1: Docker + +{{% sci-docker-ddtags %}} + +##### Opción 2: Variable de entorno `DD_TAGS` + +{{% sci-dd-tags-env-variable %}} + +#### Serverless + +Si utilizas la opción serverless, tienes dos opciones en función de la configuración de tu aplicación serverless. + +##### Opción 1: Herramientas de Datadog + +{{% sci-dd-serverless %}} + +##### Opción 2: Variable de entorno `DD_TAGS` + +{{% sci-dd-tags-env-variable %}} + +#### Host + +Si utilizas un host, configura tu aplicación con la variable de entorno `DD_TAGS`. + +{{% sci-dd-tags-env-variable %}} + +{{% /tab %}} +{{% tab "Java" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente Java versión 1.12.0 o posterior.</div> + +Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Docker + +{{% sci-docker %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Serverless + +Si utilizas la opción serverless, tienes dos opciones en función de la configuración de tu aplicación serverless. + +##### Opción 1: Herramientas de Datadog + +{{% sci-dd-serverless %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Host + +Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`. + +{{% sci-dd-git-env-variables %}} + +{{% /tab %}} +{{% tab "PHP" %}} + +<div class="alert alert-info">Se requiere la biblioteca del cliente PHP versión 1.2.0 o posterior.</div> + +Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configurar tu aplicación con variables de entorno `DD_GIT_*`. + +##### Opción 1: Docker + +{{% sci-docker %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` + +{{% sci-dd-git-env-variables %}} + +#### Host + +Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`. + +{{% sci-dd-git-env-variables %}} + +{{% /tab %}} +{{< /tabs >}} + +### Compilación dentro de un contenedor Docker + +Si tu proceso de compilación se ejecuta en CI dentro de un contenedor Docker, realiza los siguientes pasos para asegurarte de que la compilación puede acceder a la información Git: + +1. Añade el siguiente texto a tu archivo `.dockerignore`. Esto te asegura que el proceso de compilación pueda acceder a un subconjunto de la carpeta `.git`, lo que le permite determinar el hash de confirmación Git y la URL del repositorio. + + ``` + !.git/HEAD + !.git/config + !.git/refs + ``` + +2. Añade la siguiente línea de código a tu `Dockerfile`. Asegúrate de colocarla antes de que se ejecute la compilación real. + + ``` + COPY .git ./.git + ``` + +### Configuración del etiquetado de telemetría + +Para los lenguajes no compatibles, utiliza las etiquetas `git.commit.sha` y `git.repository_url` para vincular los datos a una confirmación específica. Asegúrate de que la etiqueta `git.repository_url` no contiene protocolos. Por ejemplo, si la URL de tu repositorio es `https://github.com/example/repo`, el valor de la etiqueta `git.repository_url` debe ser `github.com/example/repo`. + +## Sincronización de los metadatos de tu repositorio + +Para vincular tu telemetría con el código fuente, los metadatos de tu repositorio deben estar sincronizados con Datadog. Datadog no almacena el contenido real de los archivos de tu repositorio, sólo los objetos Git commit y tree. + +### Proveedores Git + +La integración del código fuente admite los siguientes proveedores Git: + +| Proveedor | Compatibilidad con enlaces contextuales | Compatibilidad con fragmentos de código | +|---|---|---| +| SaaS GitHub (github.com) | Sí | Sí | +| GitHub Enterprise Server | Sí | Sí | +| SaaS GitLab (gitlab.com) | Sí | Sí | +| GitLab autogestionado | Sí | No | +| Bitbucket | Sí | No | +| Servicios Azure DevOps | Sí | No | +| Azure DevOps Server | Sí | No | + +{{< tabs >}} +{{% tab "GitHub" %}} + +Instala la [integración GitHub][101] de Datadog en el [cuadro de integración GitHub][102] para permitir que Datadog sincronice los metadatos de tu repositorio automáticamente. Cuando especifiques los permisos en el cuadro de integración, selecciona al menos permisos de **Lectura** para **Contenidos**. + +Configurar la integración GitHub también te permite ver fragmentos de código en línea en [**Seguimiento de errores**][103], [**Continuous Profiler**][104], [**Monitorización serverless**][105], [**CI Visibility**][106] y [**Application Security Monitoring**][107]. + +[101]: https://docs.datadoghq.com/es/integrations/github/ +[102]: https://app.datadoghq.com/integrations/github/ +[103]: /es/logs/error_tracking/backend/?tab=serilog#setup +[104]: /es/integrations/guide/source-code-integration/?tab=continuousprofiler#links-to-git-providers +[105]: /es/serverless/aws_lambda/configuration/?tab=datadogcli#link-errors-to-your-source-code +[106]: /es/tests/developer_workflows/#open-tests-in-github-and-your-ide +[107]: /es/security/application_security/ + +{{% /tab %}} +{{% tab "GitLab" %}} + +<div class="alert alert-warning"> +Los repositorios de las instancias autogestionadas de GitLab no son compatibles con la integración del código fuente. Para habilitar esta función, <a href="/help">ponte en contacto con el servicio de asistencia</a>. +</div> + +Para vincular la telemetría con tu código fuente, carga los metadatos de tu repositorio con el comando [`datadog-ci git-metadata upload`][2]. + +Cuando se ejecuta `datadog-ci git-metadata upload` dentro de un repositorio Git, Datadog recibe la URL del repositorio, la función SHA de confirmación de la rama actual y una lista de rutas de archivos rastreados. + +Ejecuta este comando para cada confirmación que necesites sincronizar con Datadog. + +Si utilizas [gitlab.com][1], esto también te permite ver fragmentos de código en línea en [**Seguimiento de errores**][3], [**Continuous Profiler**][4], [**Monitorización serverless**][5], [**CI Visibility**][6] y [**Application Security Monitoring**][7]. + +### Validación + +Para asegurarte de que los datos se están recopilando, ejecuta `datadog-ci git-metadata upload` en tu pipeline CI. + +Puedes esperar ver el siguiente resultado: + +``` +Reporting commit 007f7f466e035b052415134600ea899693e7bb34 from repository git@my-git-server.com:my-org/my-repository.git. +180 tracked file paths will be reported. +✅ Handled in 0.077 seconds. +``` + +[1]: https://gitlab.com +[2]: https://github.com/DataDog/datadog-ci/tree/master/src/commands/git-metadata +[3]: /es/logs/error_tracking/backend/?tab=serilog#setup +[4]: /es/integrations/guide/source-code-integration/?tab=continuousprofiler#links-to-git-providers +[5]: /es/serverless/aws_lambda/configuration/?tab=datadogcli#link-errors-to-your-source-code +[6]: /es/tests/developer_workflows/#open-tests-in-github-and-your-ide +[7]: /es/security/application_security/ + +{{% /tab %}} +{{% tab "Otros proveedores Git" %}} + +<div class="alert alert-warning"> +Los repositorios en instancias autoalojadas o URL privadas no son compatibles con la integración del código fuente. Para habilitar esta función, <a href="/help">ponte en contacto con el servicio de asistencia</a>. +</div> + +Para vincular la telemetría con tu código fuente, carga los metadatos de tu repositorio con el comando [`datadog-ci git-metadata upload`][2]. + +Cuando se ejecuta `datadog-ci git-metadata upload` dentro de un repositorio Git, Datadog recibe la URL del repositorio, la función SHA de confirmación de la rama actual y una lista de rutas de archivos rastreados. + +Ejecuta este comando para cada confirmación que necesites sincronizar con Datadog. + +### Validación + +Para asegurarte de que los datos se están recopilando, ejecuta `datadog-ci git-metadata upload` en tu pipeline CI. + +Puedes esperar ver el siguiente resultado: + +``` +Reporting commit 007f7f466e035b052415134600ea899693e7bb34 from repository git@my-git-server.com:my-org/my-repository.git. +180 tracked file paths will be reported. +✅ Handled in 0.077 seconds. +``` + +[1]: https://github.com/DataDog/datadog-ci/tree/master/src/commands/git-metadata +{{% /tab %}} +{{< /tabs >}} + +## Uso + +### Enlaces a proveedores Git + +{{< tabs >}} +{{% tab "Seguimiento de errores" %}} +En [Seguimiento de errores][1], puedes ver los enlaces desde los marcos de stack tecnológico hasta su repositorio de origen. + +1. Ve a [**APM** > **Seguimiento de errores**][2]. +2. Haz clic en un problema. El panel **Detalles de problemas** aparece a la derecha. +3. En **Último evento**, haz clic en el botón **View** (Ver) a la derecha de un marco o selecciona **Ver archivo**, **VerGit blame** o **Ver confirmación** para regresar a tu herramienta de gestión de código fuente. + +{{< img src="integrations/guide/source_code_integration/error-tracking-panel-full.png" alt="Botón de visualización de un repositorio con tres opciones (ver archivo, ver blame y ver confirmación) disponibles a la derecha de una traza de stack tecnológico de error en Seguimiento de errores, junto con fragmentos de código en línea en la traza del stack tecnológico" style="width:100%;">}} + +Si utilizas la integración GitHub o si alojas tus repositorios en la instancia SaaS de GitLab (gitlab.com), haz clic en **Connect to preview** (Conectar para previsualizar), en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. + +[1]: /es/tracing/error_tracking/ +[2]: https://app.datadoghq.com/apm/error-tracking + +{{% /tab %}} +{{% tab "Continuous Profiler" %}} + +En el [Continuous Profiler][1], puedes ver una vista previa del código fuente de los marcos de perfiles. + +1. Ve a [**APM** > **Búsqueda de perfiles**][2]. +2. Pasa el cursor sobre un método en el gráfico de llamas. +3. Si es necesario, pulsa `Opt` o `Alt` para habilitar la vista previa. + +{{< img src="integrations/guide/source_code_integration/profiler-source-code-preview.png" alt="Vista previa del código fuente en el Continuous Profiler" style="width:100%;">}} + +También puedes ver los enlaces desde los marcos de perfiles hasta su repositorio de origen. Esto es compatible con los perfiles desglosados por línea, método o archivo. + +1. Ve a [**APM** > **Búsqueda de perfiles**][2]. +2. Pasa el cursor sobre un método en el gráfico de llamas. A la derecha aparece un icono con tres puntos con la etiqueta **Más acciones**. +3. Haz clic en **More actions** > **View in repo** (Más acciones > Ver en repositorio) para abrir la traza en su repositorio de código fuente. + +{{< img src="integrations/guide/source_code_integration/profiler-link-to-git.png" alt="Enlace a GitHub desde el Continuous Profiler" style="width:100%;">}} + +[1]: /es/profiler/ +[2]: https://app.datadoghq.com/profiling/search +{{% /tab %}} +{{% tab "Monitorización serverless" %}} + +Puedes ver los enlaces de los errores en tus trazas de stack tecnológico, asociadas a funciones Lambda, hasta su repositorio de origen en **Monitorización serverless**. + +1. Ve a [**Infraestructura** > **Serverless**][101] y haz clic en la pestaña **AWS**. +2. Haz clic en una función Lambda y luego en el botón **Open Trace** (Abrir traza) para una invocación con una traza de stack tecnológico asociada. +3. Haz clic en **View Code** (Ver código) para abrir el error en su repositorio de código fuente. + +Si utilizas la integración GitHub, haz clic en **Connect to preview** (Conectar para previsualizar) en los cuadros de error. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico de la función Lambda. + +{{< img src="integrations/guide/source_code_integration/serverless-aws-function-errors.mp4" alt="Enlace a GitHub desde Monitorización serverless" video="true" >}} + +[101]: https://app.datadoghq.com/functions?cloud=aws&entity_view=lambda_functions + +{{% /tab %}} +{{% tab "Visibilidad de los tests" %}} + +En **Visibilidad de los tests**, puedes ver los enlaces de ejecuciones de tests fallidas hasta su repositorio de origen. + +1. Ve a [**Entrega de software** > **Visibilidad de los tests** > **Ejecuciones de tests**][101] y selecciona un test fallido. +2. Haz clic en el botón **View on GitHub** (Ver en GitHub) para abrir el test en su repositorio de código fuente. + +{{< img src="integrations/guide/source_code_integration/test_run_blurred.png" alt="Enlace a GitHub desde el Explorador de CI Visibility" style="width:100%;">}} + +Para obtener más información, consulta [Mejora de los flujos de trabajo de los desarrolladores con Datadog][102]. + +[101]: https://app.datadoghq.com/ci/test-runs +[102]: /es/tests/developer_workflows/#open-tests-in-github-and-your-ide + +{{% /tab %}} +{{% tab "Análisis de código" %}} + +En **Análisis de código**, puedes ver los enlaces desde los Análisis estáticos y los Análisis de composición del software fallidos hasta su repositorio de fuentes. + +1. Ve a [**Entrega de software** > **Visibilidad de los tests** > **Análisis de código**][101] y selecciona un repositorio. +2. En **Vulnerabilidades del código** o **Calidad del código**, haz clic en una vulnerabilidad o violación del código. En la sección **Detalles**, haz clic en el botón **View Code** (Ver código) para abrir el código marcado en su repositorio de código fuente. + +{{< img src="integrations/guide/source_code_integration/code-analysis-scan.png" alt="Enlace a GitHub desde la vista de Vulnerabilidades del código en Análisis del código" style="width:100%;">}} + +Para obtener más información, consulta la [documentación de Análisis del código][102]. + +[101]: https://app.datadoghq.com/ci/code-analysis +[102]: /es/code_analysis/ + +{{% /tab %}} +{{% tab "Application Security Monitoring" %}} + +En **Application Security Monitoring**, puedes ver los enlaces de errores en tus trazas de stack tecnológico asociadas a señales de seguridad, hasta su repositorio fuente. + +1. Ve a [**Seguridad** > **Seguridad de la aplicación**][101] y selecciona una señal de seguridad. +2. Desplázate hasta la sección **Trazas**, en la pestaña **Señales relacionadas**, y haz clic en una traza de stack tecnológico asociada. +3. Haz clic en **View Code** (Ver código) para abrir el error en su repositorio de código fuente. + +Si utilizas la integración GitHub, haz clic en **Connect to preview** (Conectar para previsualizar) en los cuadros de error. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico de la señal de seguridad. + +{{< img src="integrations/guide/source_code_integration/asm-signal-trace-blur.png" alt="Enlace a GitHub desde Application Security Monitoring" style="width:100%;">}} + +[101]: https://app.datadoghq.com/security/appsec + +{{% /tab %}} +{{< /tabs >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/apm/error-tracking +[2]: https://app.datadoghq.com/integrations/github/ +[3]: https://docs.github.com/en/developers/apps/getting-started-with-apps/about-apps +[5]: /es/integrations/github/ +[6]: /es/tracing/ +[7]: https://app.datadoghq.com/source-code/setup/apm +[8]: /es/tracing/error_tracking/ +[9]: /es/tracing/trace_collection/dd_libraries/ \ No newline at end of file diff --git a/content/es/logs/guide/detect-unparsed-logs.md b/content/es/logs/guide/detect-unparsed-logs.md index 3631bdef92674..701d2d0285023 100644 --- a/content/es/logs/guide/detect-unparsed-logs.md +++ b/content/es/logs/guide/detect-unparsed-logs.md @@ -6,7 +6,6 @@ further_reading: - link: /logs/faq/log-parsing-best-practice tag: Documentación text: Prácticas recomendadas para el análisis de logs -kind: Guía title: Monitorizar y consultar logs sin analizar --- diff --git a/content/es/logs/guide/getting-started-lwl.md b/content/es/logs/guide/getting-started-lwl.md index a3c56c2f363f4..1c5d4413ab47e 100644 --- a/content/es/logs/guide/getting-started-lwl.md +++ b/content/es/logs/guide/getting-started-lwl.md @@ -15,23 +15,22 @@ further_reading: - link: /logs/logs_to_metrics/ tag: Documentación text: Aprender a generar métricas a partir de logs consumidos -kind: Guía -title: Guía Logging Without LimitsTM +title: Guía de Logging Without LimitsTM --- {{< img src="logs/lwl_marketecture_20231030.png" alt="Logging without LimitsTM" >}} ## Información general -Las aplicaciones basadas en la nube pueden generar logs a un ritmo de millones por minuto. Pero como tus logs no son todos igual de valiosos en todo momento, Datadog [Logging without LimitsTM][1] proporciona flexibilidad desacoplando [consumo e indexado de logs][2]. +Las aplicaciones basadas en la nube pueden generar logs a un ritmo de millones por minuto. Pero como tus logs no son todos igualmente valiosos en todo momento, Datadog [Logging without LimitsTM][1] proporciona flexibilidad, desacoplando [consumo e indexado de logs][2]. Esta guía identifica componentes clave de Logging Without LimitsTM como [patrones](#2-identify-high-volume-logging-patterns), [filtros de exclusión](#3-create-a-log-pattern-exclusion-filter), [métricas basadas en logs](#4-generate-metrics-to-track-excluded-logs) y [monitores](#create-an-anomaly-detection-monitor) que pueden ayudar a organizar mejor el Explorador de logs y monitorizar tus KPI a lo largo del tiempo. ## 1. Identificar tu estado de servicio con más logs -Tu estado de servicio con más logs contiene varios logs, algunos de los cuales pueden ser irrelevantes para solucionar problemas. Por ejemplo, es posible que quieras investigar todos los logs de códigos de respuesta 4xx y 5xx, pero excluir todos los logs de códigos de respuesta 200 del Explorador de logs, para agilizar la resolución de problemas durante una interrupción importante o un evento. Si primero identificas el estado del servicio correspondiente, podrás averiguar rápidamente qué estado de servicio genera más logs y es mejor excluir de la [vista del Explorador de logs][3]. +Tu estado de servicio con más logs contiene varios logs, algunos de los cuales pueden ser irrelevantes para la resolución de problemas. Por ejemplo, es posible que quieras investigar todos los logs de códigos de respuesta 4xx y 5xx, pero excluir todos los logs de códigos de respuesta 200 del Explorador de logs, para agilizar la resolución de problemas durante una interrupción importante o un evento. Si primero identificas el estado de servicio correspondiente, podrás averiguar rápidamente qué estado de servicio genera más logs y conviene excluir de la [vista del Explorador de logs][3]. -{{< img src="logs/guide/getting-started-lwl/identify_logging_service.mp4" alt="Identifica un estado de servicio con más logs" video=true style="width:100%;">}} +{{< img src="logs/guide/getting-started-lwl/identify_logging_service.mp4" alt="Identificar un estado de servicio con más logs" video=true style="width:100%;">}} **Para identificar tu estado de servicio con más logs**: @@ -39,22 +38,22 @@ Tu estado de servicio con más logs contiene varios logs, algunos de los cuales 2. Debajo de la barra de búsqueda, configura el grupo `*` de recuento por `service` y limítalo a `top 10`. 3. Selecciona **Top List** (Lista principal), en el menú desplegable situado junto a Hide controls (Ocultar controles). 4. Haz clic en el primer servicio de la lista y selecciona **Search for** (Buscar), en el menú desplegable. Esto genera una búsqueda, visible en la barra de búsqueda de arriba, basada en tu faceta de servicio. -5. Cambia de la agrupación por `service` a la agrupación por `status`. Esto genera una lista de estados principales de tus servicios. +5. Cambia de la agrupación por `service` a la agrupación por `status`. Esto genera una lista de estados principales de tu servicio. 6. Haz clic en el primer estado de la lista y selecciona **Search for** (Buscar), en el menú desplegable. Esto añade tu faceta de estado a la búsqueda. -**Nota**: Estos pasos pueden aplicarse a cualquier consulta de gestión de logs de gran volumen para generar una lista principal. Puedes agrupar por cualquier faceta, como `host` o `network.client.ip`, en lugar de `service` o `status`. +**Nota**: Estos pasos pueden aplicarse a cualquier consulta de gestión de logs de gran volumen, para generar una lista principal. Puedes agrupar por cualquier faceta, como `host` o `network.client.ip`, en lugar de `service` o `status`. ## 2. Identificar patrones de gestión de logs de gran volumen -Ahora que ya has identificado tu estado de servicio con más logs, cambia a la [vista de patrones][4], situada junto a la vista de gráficos en la parte superior izquierda del Explorador de logs, a fin de ver automáticamente los patrones de tus logs para el contexto seleccionado. +Ahora que ya has identificado tu estado de servicio con más logs, cambia a la [vista de patrones][4], situada junto a la vista de gráficos en la parte superior izquierda del Explorador de logs, a fin de ver automáticamente tus patrones de logs para el contexto seleccionado. -Un contexto se compone de un intervalo de tiempo y una consulta de búsqueda. Cada patrón viene con secciones resaltadas para llevarte directamente a sus funciones características. Un minigráfico muestra una cronología aproximada del volumen de sus logs para ayudarte a identificar en qué se diferencia ese patrón de otros. Las secciones de logs que varían dentro del patrón se resaltan para ayudarte a identificar rápidamente las diferencias entre las líneas de logs. +Un contexto se compone de un intervalo de tiempo y una consulta de búsqueda. Cada patrón viene con secciones resaltadas para llevarte directamente a sus funciones características. Un minigráfico muestra una cronología aproximada del volumen de sus logs para ayudarte a identificar en qué se diferencia ese patrón de otros. Las secciones de logs que varían dentro del patrón se resaltan para ayudarte a identificar rápidamente las diferencias entre líneas de logs. -Haz clic en el patrón del log que quieres excluir, para ver un ejemplo de logs subyacentes. +Haz clic en el patrón de log que quieres excluir, para ver un ejemplo de logs subyacentes. {{< img src="logs/guide/getting-started-lwl/patterns_context_panel.jpg" alt="Contexto de los patrones" style="width:100%;">}} -La vista de patrones es útil para identificar y filtrar patrones ruidosos. Muestra el número de logs que coinciden con un patrón, divididos por servicio y estado. Haz clic en el primer patrón para ver un log detallado de eventos relacionados con tu estado. Un panel contextual se rellena con información sobre el patrón de tu estado más ruidoso. +La vista de patrones es útil para identificar y filtrar patrones ruidosos. Muestra el número de logs que coinciden con un patrón, divididos por servicio y estado. Haz clic en el primer patrón para ver un log detallado con los eventos relacionados con tu estado. Un panel contextual se rellena con información sobre el patrón de tu estado más ruidoso. ## 3. Crear un filtro de exclusión de patrones de logs @@ -71,37 +70,37 @@ El panel contextual de patrones enumera todas las instancias (eventos) de un pat **Nota**: Si un log coincide con varios filtros de exclusión, sólo se aplica la regla del primer filtro de exclusión. Un log no es muestreado o excluido varias veces por diferentes filtros de exclusión. -En este ejemplo, el servicio `email-api-py` con el estado `INFO` y el patrón `response code from ses 200` se filtra con un filtro de exclusión. La eliminación de cualquier patrón de gestión de logs de gran volumen similar a este del Explorador de logs te ayuda a reducir el ruido y a identificar problemas más rápidamente. Sin embargo, estos logs **sólo** son excluidos de la indexación. Se siguen consumiendo y están disponibles para su visualización en [Live Tail][5] y pueden enviarse a [archivos de logs][6] o utilizarse para [generar métricas][7]. +En este ejemplo, el servicio `email-api-py` con el estado `INFO` y el patrón `response code from ses 200` se filtra utilizando un filtro de exclusión. La eliminación de cualquier patrón de gestión de logs de gran volumen similar al del Explorador de logs te ayuda a reducir el ruido e identificar problemas más rápidamente. Sin embargo, estos logs **sólo** se excluyen de la indexación, ya que se siguen consumiendo, están disponibles para su visualización en [Live Tail][5] y pueden enviarse a [archivos de logs][6] o utilizarse para [generar métricas][7]. {{< img src="logs/guide/getting-started-lwl/live_tail.png" alt="Página de Live Tail que muestra una lista de logs y el menú desplegable del intervalo de tiempo" style="width:100%;">}} -Los filtros de exclusión pueden deshabilitarse en cualquier momento, cambiando la opción de deshabilitación situada a la derecha del filtro. También pueden modificarse y eliminarse, situándose sobre el filtro y seleccionando la opción para editar o eliminar. +Los filtros de exclusión pueden deshabilitarse en cualquier momento, cambiando la opción de deshabilitación situada a la derecha del filtro. También pueden modificarse y eliminarse, situándose sobre el filtro y seleccionando la opción para editarlos o eliminarlos. ## 4. Generar métricas para realizar un seguimiento de logs excluidos -Una vez que un patrón de logs se excluye del Explorador de logs, puedes seguir realizando un seguimiento de los KPI a lo largo del tiempo, en el nivel de consumo, mediante la creación de una nueva [métrica personalizada basada en logs][8]. +Una vez que un patrón de log se excluye del Explorador de logs, puedes seguir realizando un seguimiento de los KPI a lo largo del tiempo, en el nivel de consumo, creando una nueva [métrica personalizada basada en logs][8]. ### Añadir una nueva métrica basada en logs -**Para generar una nueva métrica basada en logs en tu patrón de logs**: +**Para generar una nueva métrica basada en logs en tu patrón de log**: 1. Ve a la página [Generar métricas][9]. 1. Haz clic en **New Metric** (Nueva métrica), en la esquina superior derecha. -1. Introduce un nombre para tu métrica. loguear Los nombres de métricas basadas en logs deben seguir la convención de nomenclatura para métricas. +1. Introduce un nombre para tu métrica. Los nombres de métricas basadas en logs deben seguir la convención de nomenclatura para métricas. 1. En **Define Query** (Definir consulta), introduce la consulta de búsqueda que has copiado y pegado en el filtro de exclusión de patrones. Por ejemplo: `service:web-store status:info "updating recommendations with customer_id" "url shops"`, como en el ejemplo anterior. -1. Selecciona el campo del que quieres realizar un seguimiento: selecciona `*` para generar un recuento de todos los logs que coinciden con tu consulta o introduce una medida (por ejemplo, `@duration`) para agregar un valor numérico y crear su correspondiente recuento, mínimo, máximo, suma y media de métricas agregadas. -1. Añade dimensiones al grupo: selecciona atributos de logs o claves de etiqueta (tag) para aplicarlos a las métricas basadas en logs para transformarlos en etiquetas siguiendo el formato de `<KEY>:<VALUE>`. Las métricas basadas en logs se consideran métricas personalizadas. Evita agrupar por atributos no limitados o de cardinalidad extremadamente alta como marcas de tiempo, ID de usuario, ID de solicitud o ID de sesión, para evitar un impacto negativo en tu facturación. +1. Selecciona el campo del que quieres realizar un seguimiento: selecciona `*` para generar un recuento de todos los logs que coinciden con tu consulta o introduce una medida (por ejemplo, `@duration`) para agregar un valor numérico y crear sus correspondientes métricas agregadas de recuento, mínimo, máximo, suma y promedio. +1. Añade dimensiones al grupo: selecciona atributos de logs o claves de etiqueta (tag) para aplicarlos a las métricas basadas en logs y así transformarlos en etiquetas que sigan el formato de `<KEY>:<VALUE>`. Las métricas basadas en logs se consideran métricas personalizadas. Evita agrupar por atributos no limitados o de cardinalidad extremadamente alta como marcas de tiempo, ID de usuario, ID de solicitud o ID de sesión, para evitar un impacto negativo en tu facturación. ### Crear un monitor de detección de anomalías -La [detección de anomalías][10] es una función algorítmica que identifica cuándo una métrica se comporta de forma diferente a como lo ha hecho en el pasado. La creación de un monitor de detección de anomalías para tus logs excluidos te avisa de cualquier cambio según tus condiciones de alerta configuradas. +La [detección de anomalías][10] es una función algorítmica que identifica cuando una métrica se comporta de forma diferente a como lo ha hecho en el pasado. La creación de un monitor de detección de anomalías para tus logs excluidos te avisa de cualquier cambio, dependiendo de tus condiciones de alerta configuradas. **Para configurar un monitor de detección de anomalías**: 1. Ve a la página [Nuevo Monitor][11]. 1. Selecciona **Anomaly* (Anomalía). 1. Introduce la métrica basada en logs definida en la sección anterior. -1. Configura las condiciones de alerta y añade la información adicional necesaria para que tú o tu equipo sepan qué está ocurriendo. +1. Configura las condiciones de alerta y añade la información adicional necesaria para que tú o tu equipo reciban alertas y puedan saber lo que está ocurriendo. 1. Haz clic en **Create** (Crear). Cuando se detecta una anomalía, se envía una alerta a todos los que están etiquetados. Esta alerta también se puede encontrar en la página de [monitores activados][12]. @@ -112,12 +111,12 @@ En esta guía has aprendido a utilizar Logging without LimitsTM para: 1. [Identificar tu estado de servicio con más logs](#1-identify-your-most-logged-service-status) 2. [Identificar patrones de gestión de logs de gran volumen](#2-identify-high-volume-logging-patterns) -3. [Crear un filtro de exclusión de patrones de logs](#3-create-a-log-pattern-exclusion-filter) +3. [Crear un filtro de exclusión de patrones de log](#3-create-a-log-pattern-exclusion-filter) 4. [Generar métricas para realizar un seguimiento de logs excluidos](#4-generate-metrics-to-track-excluded-logs) * [Añadir una nueva métrica basada en logs](#add-a-new-log-based-metric) * [Crear un monitor de detección de anomalías](#create-an-anomaly-detection-monitor) -Para obtener más información sobre Logging Without LimitsTM y cómo utilizar mejor algunas funciones como el Explorador de logs, Live Tail y los patrones de logs, consulta los siguientes enlaces. +Para obtener más información sobre Logging Without LimitsTM y cómo utilizar mejor algunas funciones como el Explorador de logs, Live Tail y los patrones de log, consulta los siguientes enlaces. ## Leer más diff --git a/content/es/monitors/guide/create-cluster-alert.md b/content/es/monitors/guide/create-cluster-alert.md index cce149def9f2d..567e90cdff046 100644 --- a/content/es/monitors/guide/create-cluster-alert.md +++ b/content/es/monitors/guide/create-cluster-alert.md @@ -31,6 +31,6 @@ En este ejemplo, quieres recibir una notificación cuando el 40 por ciento de lo Este monitor rastrea el porcentaje de hosts que han tenido un uso de CPU superior al 50 por ciento durante los últimos diez minutos y genera un notificación si más del 40 por ciento de esos hosts cumplen la condición especificada. -{{< img src="monitors/faq/cluster-status.png" alt="cluster-alert-status" >}} +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/monitors/guide/monitor-arithmetic-and-sparse-metrics.md b/content/es/monitors/guide/monitor-arithmetic-and-sparse-metrics.md index 7b95fff17b945..6fcc259a9e636 100644 --- a/content/es/monitors/guide/monitor-arithmetic-and-sparse-metrics.md +++ b/content/es/monitors/guide/monitor-arithmetic-and-sparse-metrics.md @@ -53,7 +53,7 @@ Se verían sobre todo evaluaciones "omitidas". | Ruta | Evaluación | Resultado | |:--------------------|:----------------------------------------|:-------| -| `classic_eval_path` | **1/Nan + Nan/1 + ... + 1/Nan + Nan/1** | N/D | +| `classic_eval_path` | **1/Nan + Nan/1 + ... + 1/Nan + Nan/1** | N/A | Ajustando la interpolación, puedes asegurarte que haya métricas en cada intervalo de tiempo. diff --git a/content/es/monitors/guide/non_static_thresholds.md b/content/es/monitors/guide/non_static_thresholds.md index a7bf460bed117..7ea0e96cf7fec 100644 --- a/content/es/monitors/guide/non_static_thresholds.md +++ b/content/es/monitors/guide/non_static_thresholds.md @@ -6,7 +6,6 @@ further_reading: - link: /monitors/types/anomaly/ tag: Documentación text: Monitor de anomalías -kind: Guía title: Cómo monitorizar umbrales no estáticos --- @@ -14,7 +13,7 @@ title: Cómo monitorizar umbrales no estáticos Un monitor de métricas típico activa una alerta si una única métrica supera un umbral específico. Por ejemplo, puedes configurar una alerta para que se active si el uso del disco supera el 80%. Este enfoque es eficiente para muchos casos de uso, pero ¿qué ocurre cuando el umbral es una variable en lugar de un número absoluto? -Los monitores con la tecnología Watchdog (a saber, de [anomalías][1] y [outliers][2]) son particularmente útiles cuando no hay una definición explícita de que tu métrica está desviada. Sin embargo, cuando sea posible, deberías utilizar monitores normales con condiciones de alerta adaptadas para maximizar la precisión y minimizar el tiempo de alerta para tu caso de uso específico. +Los monitores con la tecnología Watchdog (a saber, de [anomalías][1] y [outliers][2]) son particularmente útiles cuando no hay una indicación explícita de que tu métrica se encuentra desviada. Sin embargo, cuando sea posible, deberías utilizar monitores normales con condiciones de alerta adaptadas para maximizar la precisión y minimizar el tiempo de alerta para tu caso de uso específico. Esta guía cubre casos de uso comunes de alertas sobre umbrales no estáticos: - [Alerta sobre una métrica que se desvía, fuera de las **variaciones temporarias**](#seasonal-threshold) @@ -24,18 +23,18 @@ Esta guía cubre casos de uso comunes de alertas sobre umbrales no estáticos: ### Contexto -Eres responsable de un equipo encargado de un sitio web de comercio electrónico y quieres: +Eres responsable del equipo encargado de un sitio web de comercio electrónico y quieres: - recibir alertas de tráfico inesperadamente bajo en tu página de inicio - captar incidentes más localizados como los que afectan a los proveedores públicos de Internet - anticipar situaciones de fallo desconocidas El tráfico de tu sitio web varía de la noche al día y de los días laborables a los fines de semana. No existe un número absoluto para cuantificar lo que significa "inesperadamente bajo". Sin embargo, el tráfico sigue un patrón predecible en el que puedes considerar una diferencia del 10% como un indicador fiable de un problema, como por ejemplo un incidente localizado que afecta a los proveedores de Internet pública. -{{< img src="monitors/guide/non_static_thresholds/seasonal_line_graph.png" alt="Line graph of a periodic or seasonal metric" (Gráfico de líneas de una métrica periódica o temporaria) style="width:100%;" >}} +{{< img src="monitors/guide/non_static_thresholds/seasonal_line_graph.png" alt="Gráfico de líneas de una métrica periódica o temporaria" style="width:100%;" >}} ### Monitor -Tu equipo mide el número de conexiones en su servidor web NGINX utilizando la métrica [`nginx.requests.total_count`][3]. +Tu equipo mide el número de conexiones en tu servidor web NGINX utilizando la métrica [`nginx.requests.total_count`][3]. La **solicitud** consta de 3 partes: 1. Una consulta para obtener el número actual de solicitudes. @@ -43,14 +42,14 @@ La **solicitud** consta de 3 partes: 3. Consultas "fórmula" que calculan la relación entre las dos primeras consultas. A continuación, define la agregación temporal: -- Eliges el marco temporal. Cuanto mayor sea el marco temporal, más datos se evaluarán para detectar una anomalía. Los marcos temporales más amplios también pueden dar lugar a más alertas de monitores, así que empieza con 1 hora y luego ajusta el marco temporal a tus necesidades. -- Eliges la agregación. Dado que se trata de una métrica de recuento que realiza un cociente, `average` (o `sum`) es una elección natural. +- Elige el marco temporal. Cuanto mayor sea el marco temporal, más datos se evaluarán para detectar una anomalía. Los marcos temporales más amplios también pueden dar lugar a más alertas de monitores, así que empieza con 1 hora y luego ajusta el marco temporal según tus necesidades. +- Elige la agregación. Dado que se trata de una métrica de recuento que ejecuta una proporción, `average` (o `sum`) es una elección natural. El umbral que aparece en la siguiente captura de pantalla se ha configurado en 0,9 para permitir una diferencia del 10% entre el valor de la primera consulta (actual) y el de la segunda (semana anterior). {{< tabs >}} -{{% tab "UI Configuration" %}} -{{< img src="monitors/guide/non_static_thresholds/seasonal_threshold_config.png" alt="Configuration to add week_before timeshift to metric query and set formula a/b" Configuración para añadir la serie temporal _semana_anterior_ a la consulta de la métrica y establecer la fórmula a/b) style="width:100%;" >}} +{{% tab "Configuración de la interfaz de usuario" %}} +{{< img src="monitors/guide/non_static_thresholds/seasonal_threshold_config.png" alt="Configuración para añadir la serie temporal _semana_anterior_ a la consulta de la métrica y establecer la fórmula a/b" style="width:100%;" >}} {{% /tab %}} {{% tab "JSON Example" (Ejemplo de JSON) %}} @@ -83,26 +82,26 @@ El umbral que aparece en la siguiente captura de pantalla se ha configurado en 0 ## Umbral de referencia ### Contexto -Eres responsable del equipo de control de calidad encargado de los procesos de compra en tu sitio web de comercio electrónico. Quieres asegurarte de que tus clientes tendrán una buena experiencia y podrán comprar tus productos sin problemas. Un indicador de ello es la tasa de errores. +Eres responsable del equipo de control de calidad encargado de los procesos de compra en tu sitio web de comercio electrónico. Quieres asegurarte de que tus clientes tengan una buena experiencia y puedan comprar tus productos sin problemas. Un indicador de esto es la tasa de error. -El tráfico no es el mismo a lo largo del día, por lo que obtener 50 errores/minuto un viernes por la tarde es menos preocupante que obtener 50 errores/minuto un domingo por la mañana. Monitorizar la tasa de errores, más que los errores en sí, ofrece una visión fiable de la apariencia de las métricas saludables y las no saludables. +El tráfico no es el mismo a lo largo del día, por lo que obtener 50 errores/minuto un viernes por la tarde es menos preocupante que obtener 50 errores/minuto un domingo por la mañana. Monitorizar la tasa de error, más que los errores en sí, ofrece una visión fiable de la apariencia que tienen las métricas saludables y las no saludables. -Recibe alertas cuando la tasa de errores es alta, pero también cuando el volumen de ocurrencias es lo suficientemente significativo. +Recibe alertas cuando la tasa de error es alta, pero también cuando el volumen de ocurrencias es suficientemente significativo. ### Monitor Crea 3 monitores en total: 1. Un [monitor de métricas para alertar sobre el número total de ocurrencias.](#metric-monitor-to-alert-on-the-total-number-of-hits) -1. Un [monitor de métricas para calcular el porcentaje de error.](#metric-monitor-to-calculate-the-error-rate) +1. Un [monitor de métricas para calcular la tasa de error.](#metric-monitor-to-calculate-the-error-rate) 1. Un [monitor compuesto que activa una alerta si los dos primeros monitores están en estado de ALERTA.](#composite-monitor) #### Monitor de métricas para alertar sobre el número total de ocurrencias -El primer monitor registra el número total de ocurrencias, tanto de aciertos como de fallos. Este monitor determina si la tasa de errores debe activar una alerta. +El primer monitor registra el número total de ocurrencias, tanto de aciertos como de fallos. Este monitor determina si la tasa de error debe activar una alerta. {{< tabs >}} -{{% tab "UI Configuration" %}} - {{< img src="monitors/guide/non_static_thresholds/reference_total_hits.png" alt="Metric monitor configuration with formula to calculate total hits" (Configuración de un monitor de métricas que muestra la fórmula para calcular el total de ocurrencias) style="width:100%;" >}} +{{% tab "Configuración de la interfaz de usuario" %}} + {{< img src="Configuración de un monitor de métricas que muestra la fórmula para calcular el total de ocurrencias" style="width:100%;" >}} {{% /tab %}} @@ -131,13 +130,13 @@ El primer monitor registra el número total de ocurrencias, tanto de aciertos co {{% /tab %}} {{< /tabs >}} -#### Monitor de métricas para calcular el porcentaje de error +#### Monitor de métricas para calcular la tasa de error El segundo monitor calcula la tasa de error. Crea una consulta sobre el número de errores dividido por el número total de ocurrencias para obtener la tasa de error `a / a+b`: {{< tabs >}} -{{% tab "UI Configuration" %}} - {{< img src="monitors/guide/non_static_thresholds/reference_error_rate.png" alt="Metric monitor configuration with formula to calculate error rate" (Configuración de un monitor de métricas que muestra la fórmula para calcular la tasa de error) style="width:100%;" >}} +{{% tab "Configuración de la interfaz de usuario" %}} + {{< img src="monitors/guide/non_static_thresholds/reference_error_rate.png" alt="Configuración de un monitor de métricas que muestra la fórmula para calcular la tasa de error" style="width:100%;" >}} {{% /tab %}} {{% tab "JSON Example" (Ejemplo de JSON) %}} @@ -169,11 +168,11 @@ El segundo monitor calcula la tasa de error. Crea una consulta sobre el número #### Monitor compuesto -El último monitor es un monitor compuesto que envía una alerta sólo si los dos monitores anteriores también están en estado de **ALERTA**. +El último monitor es un monitor compuesto que envía alertas sólo si los dos monitores anteriores también están en estado de **ALERTA**. -{{< img src="monitors/guide/non_static_thresholds/reference_composite_monitor_config.png" alt="Example composite monitor configuration showing boolean logic to alert if both monitors are in ALERT state" (Ejemplo de configuración de un monitor compuesto que muestra una lógica booleana para alertar si los dos monitores están en estado de ALERTA) style="width:100%;" >}} +{{< img src="monitors/guide/non_static_thresholds/reference_composite_monitor_config.png" alt="Ejemplo de configuración de un monitor compuesto que muestra una lógica booleana para alertar cuando los dos monitores están en estado de ALERTA" style="width:100%;" >}} -## Leer más +## Lectura adicional {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/monitors/guide/scoping_downtimes.md b/content/es/monitors/guide/scoping_downtimes.md index b0830ec1e7a34..fb0025ec9200d 100644 --- a/content/es/monitors/guide/scoping_downtimes.md +++ b/content/es/monitors/guide/scoping_downtimes.md @@ -11,23 +11,22 @@ further_reading: tag: Guía text: Suprimir alertas a través de la API de tiempos de inactividad y la interfaz de usuario -kind: Guía -title: Delimitación del tiempo de inactividad +title: Delimitación de los tiempos de inactividad --- ## Información general -Los tiempos de inactividad se programan para cierres del sistema, mantenimientos fuera de línea o actualizaciones sin activar tus monitores. Los tiempos de inactividad silencian todas las alertas y notificaciones de monitor, pero no impiden las transiciones de estado de los monitores. +Los tiempos de inactividad se programan para cierres del sistema, mantenimientos fuera de línea o actualizaciones sin activar tus monitores. Los tiempos de inactividad silencian todas las alertas y notificaciones de monitores, pero no impiden las transiciones de estado de los monitores. -En la mayoría de los casos, no querrás silenciar completamente **todas** las notificaciones de monitores debido al riesgo de perder importantes alertas que no estén relacionadas con ningún mantenimiento programado. +En la mayoría de los casos, no querrás silenciar completamente **todas** las notificaciones de monitores, ya que correrías el riesgo de perder importantes alertas que no están relacionadas con ningún mantenimiento programado. -Esta guía muestra cómo delimitar adecuadamente los tiempos de Inactividad a través de la interfaz de usuario para la delimitación de los tiempos de Inactividad en un proceso de dos pasos: +Esta guía muestra cómo delimitar adecuadamente los tiempos de inactividad a través de la interfaz de usuario para la delimitación de los tiempos de inactividad en un proceso de dos pasos: 1. [Selecciona el o los monitores en el/los que quieres aplicar el tiempo de inactividad.](#choose-which-monitors-to-silence) 2. [Delimita la consulta para filtrar las notificaciones _exactas_ que quieres silenciar en cada uno de los monitores.](#granularly-scope-downtimes) -## Elige qué monitors silenciar +## Elige qué monitores silenciar -Define a qué monitores quieres asignar el tiempo de inactividad. Hay tres opciones diferentes: asignarlo a un monitor específico, a varios monitores o a todos los monitores. +Define a qué monitores quieres asignar los tiempos de inactividad. Hay tres opciones diferentes: asignarlos a un monitor específico, a varios monitores o a todos los monitores. ### Seleccionar un monitor específico @@ -35,34 +34,32 @@ Puedes optar por silenciar temporalmente un monitor específico. Por ejemplo, si En la configuración del tiempo de inactividad, selecciona **Por nombre de monitor** y busca el monitor deseado. -### Seleccionar múltiples monitores en función de las etiquetas (tags) de monitor +### Seleccionar varios monitores en función de las etiquetas (tags) de monitor -<div class="alert alert-info">Las etiquetas de monitor son independientes de las etiquetas enviadas por el Agent o por integraciones y de las etiquetas asignadas a los datos que estás consultando.</div> +<div class="alert alert-info">Las etiquetas de monitor son independientes de las etiquetas enviadas por el Agent o por las integraciones y de las etiquetas asignadas a los datos que estás consultando.</div> -Los tiempos de inactividad en monitores pueden programarse en función de tus etiquetas de monitor y luego delimitarse mediante las etiquetas agrupadas en la consulta del monitor. Selecciona `By monitor Tags` e introduce las etiquetas del monitor que quieres seleccionar. +Los tiempos de inactividad en monitores pueden programarse en función de tus etiquetas de monitor y luego delimitarse mediante las etiquetas agrupadas en la consulta del monitor. Selecciona `By Monitor Tags` e introduce las etiquetas del monitor que quieres seleccionar. **Nota**: Las etiquetas son aditivas, lo que significa que una entrada de `env:dev team:automations` se asignará a monitores que tengan **ambas** etiquetas: `env:dev` Y `team:automations`. ### Seleccionar todos los monitores -Para ambas opciones, `By monitor Name` o `By monitor Tags`, puedes optar por asignarlas a todos los monitores seleccionando el primer elemento del menú desplegable etiquetado como `All monitors`. +Para ambas opciones, `By Monitor Name` o `By Monitor Tags`, puedes optar por asignarlas a todos los monitores seleccionando el primer elemento del menú desplegable etiquetado como `All Monitors`. -## Delimitar tiempos de inactividad de forma granular +## Delimitar tiempos de inactividad de forma específica -Utiliza el contexto de grupo para aplicar filtros adicionales a tu tiempo de inactividad y tener un control granular sobre los monitores que quieres silenciar. El contexto de grupo de un tiempo de inactividad se empareja **con** el objetivo específico del monitor. Si seleccionas varios monitores utilizando etiquetas de monitor, primero tendrás que buscar los monitores etiquetados en consecuencia antes del emparejamiento con el contexto de grupo. +Utiliza el contexto de grupo para aplicar filtros adicionales a tu tiempo de inactividad y tener un control específico sobre los monitores que quieres silenciar. El contexto de grupo de un tiempo de inactividad se empareja **con** el objetivo específico del monitor. Si seleccionas varios monitores utilizando etiquetas de monitor, primero tendrás que buscar los monitores etiquetados en consecuencia antes del emparejamiento con el contexto de grupo. Los ejemplos de esta guía muestran cómo el `Group scope` puede aplicarse a monitores en los que está configurada la [agrupación de alertas múltiples][2]. ### Silenciar monitores con una etiqueta específica 1. Para programar un tiempo de inactividad en un solo grupo (en este caso, `service:web-store`), introduce ese grupo en el campo `Group scope`. -2. Haz clic en **Preview affected monitors** (Previsualizar monitores afectados) para comprobar que el monitor elegido sigue en el contexto, para que las alertas del grupo `service:web-store` se silencien durante el tiempo de inactividad programado. +2. Haz clic en **Preview affected monitors** (Previsualizar monitores afectados) para comprobar que el monitor elegido sigue en el contexto, a fin de que las alertas del grupo `service:web-store` se silencien durante el tiempo de inactividad programado. -{{< img src="monitors/downtimes/downtime_example_byname.png" alt="Downtime example of 'By Monitor Name' with preview of affected monitors" (Ejemplo de tiempo de inactividad "Por nombre de monitor" que muestra la vista previa de los monitores afectados) style="width:90%;">}} +{{< img src="monitors/downtimes/downtime_example_byname.png" alt="Ejemplo de tiempo de inactividad "Por nombre de monitor" que muestra la vista previa de los monitores afectados" style="width:90%;">}} -Una vez que se inicia el tiempo de inactividad programado, sólo se silencian las alertas del grupo `service:web-store` de este monitor. - -{{< img src="monitors/downtimes/downtime_examplebyname1_monitor.png" alt="Evaluation graph showing downtime for group service:web-store" (Gráfico de evaluación que muestra el tiempo de inactividad del grupo service:web-store) style="width:90%;">}} +Una vez que se inicia el tiempo de inactividad programado, sólo se silencian las alertas del grupo `service:web-store` de ese monitor. Esto silencia cualquier alerta que incluya la etiqueta `service:web-store`, por ejemplo: @@ -77,7 +74,7 @@ Esto silencia cualquier alerta que incluya la etiqueta `service:web-store`, por 1. Para programar un tiempo de inactividad en varios grupos (por ejemplo, `service:web-store` y `env:prod`), introduce ese grupo en el campo `Group scope`. 2. Haz clic en **Preview affected monitors** (Previsualizar monitores afectados) para verificar los monitores que se encuentran en el contexto. -3. Una vez que se inicia el tiempo de inactividad programado, las alertas se silencian para el grupo: +3. Una vez que se inicia el tiempo de inactividad programado, se silencian las alertas del grupo: `env:prod` **Y** `service:web-store` | Grupo de monitores | Silenciado | @@ -104,33 +101,29 @@ Consulta `env:(dev OR staging)` ### Silenciar monitores mediante contextos con comodines -La ejecución de importantes actualizaciones dentro de tu infraestructura no es poco frecuente. Los tiempos de inactividad pueden ayuda silenciar todas las entidades afectadas, sin demasiado scripting adicional. Por ejemplo, podrías estar actualizando todos los hosts de un determinado servicio. Estos hosts podrían seguir ciertas convenciones de nomenclatura de tu organización, como mostrar su aplicación relacionada como prefijo. Esto podría resultar en cientos de hosts con nombres como `host:mydemoapplication-host-1`y `host:mydemoapplication-host-2`. +La ejecución de importantes actualizaciones dentro de tu infraestructura no es poco frecuente. Los tiempos de inactividad pueden ayudar silenciar todas las entidades afectadas, sin demasiado scripting adicional. Por ejemplo, podrías estar actualizando todos los hosts de un determinado servicio. Estos hosts podrían seguir ciertas convenciones de nomenclatura de tu organización, como llevar los nombres de sus aplicaciones relacionadas como prefijo. Esto podría resultar en cientos de hosts con nombres como `host:mydemoapplication-host-1`y `host:mydemoapplication-host-2`. Crea un tiempo de inactividad delimitado por `host:mydemoapplication-*`. Esto empareja y silencia todos los hosts que tienen el prefijo correspondiente. También puedes aplicar el método inverso, en el que el tiempo de inactividad está delimitado por `host:*-mydemoapplication`. Esto empareja y silencia todos los hosts que terminan con `mydemoapplication`. ### Excluir grupos para no silenciarlos -Si estás ejecutando tu aplicación y tu infraestructura en varios entornos, probablemente tengas un entorno de producción y varios entornos de no producción (por ejemplo, de test, de regresión o de demostración). Para evitar recibir alertas de entornos de no producción, puedes configurar un tiempo de inactividad delimitado por: `env:* -env:prod`. Este contexto apunta a todas las alertas que tienen el conjunto de etiquetas `env` y luego excluye tu entorno de producción como un paso secundario. +Si estás ejecutando tu aplicación y tu infraestructura en varios entornos, probablemente tengas un entorno de producción y varios entornos de no producción (por ejemplo, de test, de regresión o de demostración). Para evitar recibir alertas de entornos de no producción, puedes configurar un tiempo de inactividad delimitado por: `env:* -env:prod`. Este contexto agrupa todas las alertas que tienen el conjunto de etiquetas `env` y luego excluye tu entorno de producción como un paso secundario. ### Múltiples monitores delimitados con la misma etiqueta -1. El *monitor A* es un monitor de alerta múltiple para hosts que informan de una métrica promediada entre múltiples grupos de `service`. -2. El *monitor B* es un monitor de alerta múltiple para hosts que informan de la misma métrica para `service:web-store`. -3. El tiempo de inactividad se programa para cualquier monitor que tiene la etiqueta de monitor `downtime:true`. +1. El *monitor A* es un monitor de alerta múltiple para hosts que informan de una métrica promediada entre varios grupos de `service`. +2. El *monitor B* es un monitor de alerta múltiple para hosts que informan sobre la misma métrica para `service:web-store`. +3. El tiempo de inactividad se programa para cualquier monitor que tenga la etiqueta de monitor `downtime:true`. 4. Este tiempo de inactividad se limita al grupo `service:web-store`. 5. Haz clic en **Preview affected monitors** (Previsualizar monitores afectados) para verificar los monitores que están en el contexto. En este ejemplo se muestra que ambos monitores tienen el grupo `service:web-store` en el contexto. -{{< img src="monitors/downtimes/downtime_examplebytag1_downtime.png" alt="downtime example of 'By Monitor Tags' with preview of affected monitors" (Ejemplo de tiempo de inactividad "Por etiquetas de monitor" que muestra la previsualización de los monitores afectados) style="width:80%;">}} - -6. El *monitor A* muestra que ha comenzado el tiempo de inactividad, pero sólo para el grupo en el contexto: `service:web-store` - -{{< img src="monitors/downtimes/downtime_examplebytag1_monitor.png" alt="Evaluation graph showing downtime for group service:web-store" (Gráfico de evaluación que muestra el tiempo de inactividad del grupo group service:web-store) style="width:80%;">}} +{{< img src="monitors/downtimes/downtime_examplebytag1_downtime.png" alt="Ejemplo de tiempo de inactividad "Por etiquetas de monitor" que muestra la previsualización de los monitores afectados" style="width:80%;">}} -7. El *monitor B* muestra que ha comenzado el tiempo de inactividad para `service:web-store`. Dado que todos los grupos de monitores (por `host`) pertenecen a `service:web-store`, el resultado es que todos los hosts están silenciados durante el tiempo de inactividad de este monitor. +6. El *monitor A* muestra que se ha iniciado el tiempo de inactividad, pero sólo para el grupo en el contexto: `service:web-store` -{{< img src="monitors/downtimes/downtime_examplebytag1_monitor2.png" alt="Evaluation graph showing downtime for group service:web-store and both affected hosts" (Gráfico de evaluación que muestra el tiempo de inactividad del grupo service:web-store y ambos hosts afectados) style="width:80%;">}} +7. El *monitor B* muestra que se ha iniciado el tiempo de inactividad para `service:web-store`. Debido a que todos los grupos de monitores (por `host`) pertenecen a `service:web-store`, todos los hosts estarán silenciados durante el tiempo de inactividad de este monitor. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/monitors/types/ci.md b/content/es/monitors/types/ci.md index 5d89dcefad5a6..213ee6cfb864c 100644 --- a/content/es/monitors/types/ci.md +++ b/content/es/monitors/types/ci.md @@ -25,7 +25,7 @@ title: Monitor CI ## Resumen -Una vez que [CI Visibility está habilitado][1] para tu organización, puedes crear un pipeline CI o un monitor de tests CI. +Una vez que [CI Visibility esté habilitado][1] para tu organización, podrás crear un pipeline CI o un monitor de tests CI. Los monitores CI te permiten visualizar los datos de CI y configurar alertas sobre ellos. Por ejemplo, crea un monitor de pipelines CI para recibir alertas sobre un pipeline o una tarea que haya fallado. Crea un un monitor de tests CI para recibir alertas sobre tests fallidos o lentos. @@ -43,31 +43,31 @@ Elige entre un monitor de **Pipelines** o **Tests**: ### Definir la consulta de búsqueda 1. Crea una consulta de búsqueda utilizando la misma lógica de una búsqueda del explorador de pipelines CI. -2. Selecciona el nivel de evento de pipeline CI: +2. Selecciona el nivel de eventos de pipelines CI: * **Pipeline**: evalúa la ejecución de un pipeline completo, normalmente compuesto por una o varias tareas. * **Stage** (Etapa): evalúa la ejecución de un grupo de una o varias tareas en los proveedores CI compatibles * **Job** (Tarea): evalúa la ejecución de un grupo de comandos. * **Command** (Comando): evalúa manualmente eventos de [comandos personalizados][1] instrumentados que son comandos individuales que se ejecutan en una tarea. * **All** (Todo): evalúa todos los tipos de eventos. 3. Elige monitorizar un recuento de eventos de pipelines CI, una faceta o una medida: - * **CI Pipeline event count** (Recuento de eventos de pipelines CI): utiliza la barra de búsqueda (opcional) y **no** selecciones una faceta o una medida. Datadog evalúa el número de eventos de pipeline CI, a lo largo de un periodo de tiempo seleccionado, y luego lo compara con las condiciones del umbral. - * **Dimensión**: selecciona la dimensión (faceta cualitativa) para emitir alertas sobre el `Unique value count` de la faceta. + * **CI Pipeline event count** (Recuento de eventos de pipelines CI): utiliza la barra de búsqueda (opcional) y **no** selecciones una faceta o una medida. Datadog evalúa el número de eventos de pipelines CI, a lo largo de un periodo de tiempo seleccionado, y luego lo compara con las condiciones del umbral. + * **Dimensión** (Dimensión): selecciona la dimensión (faceta cualitativa) para emitir alertas sobre el `Unique value count` de la faceta. * **Measure* (Medida): selecciona la medida (faceta cuantitativa) para emitir alertas sobre el valor numérico de la medida del pipeline CI (similar a un monitor de métricas). Selecciona la agregación (`min`, `avg`, `sum`, `median`, `pc75`, `pc90`, `pc95`, `pc98`, `pc99` o `max`). -4. Agrupa los eventos de pipeline CI por múltiples dimensiones (opcional): +4. Agrupa los eventos de pipelines CI por múltiples dimensiones (opcional): * Todos los eventos de pipelines CI que coinciden con la consulta se agregan a grupos basados en el valor de hasta cuatro facetas. 5. Configura la estrategia de agrupación de alertas (opcional): - * Si la consulta tiene un `group by`, las alertas múltiples aplican la alerta a cada origen, en función de tus parámetros de grupo. Se genera un evento de alerta para cada grupo que cumple las condiciones establecidas. Por ejemplo, podrías agrupar una consulta por `@ci.pipeline.name` para recibir una alerta separada para cada nombre de pipeline CI, cuando el número de errores es elevado. + * Si la consulta tiene un `group by`, las alertas múltiples aplican la alerta a cada origen, en función de tus parámetros de grupo. Se genera un evento de alerta para cada grupo que cumple las condiciones establecidas. Por ejemplo, podrías agrupar una consulta por `@ci.pipeline.name`, para recibir una alerta separada para cada nombre de pipeline CI cuando el número de errores es elevado. -{{< img src="monitors/monitor_types/ci_pipelines/define-the-search-query.png" alt="Consulta de Status:Error de CI configurado para agruparse por nombre de test" style="width:100%;" >}} +{{< img src="monitors/monitor_types/ci_pipelines/define-the-search-query.png" alt="Consulta de estado de error de CI configurado para agruparse por nombre de test" style="width:100%;" >}} #### Mediante fórmulas y funciones Se pueden crear monitores de pipelines CI utilizando fórmulas y funciones. Esto puede utilizarse, por ejemplo, para crear monitores de la **tasa** de ocurrencia de un evento, como por ejemplo la tasa de fallo de un pipeline (tasa de error). -El siguiente ejemplo es un monitor de tasa de error de pipeline que utiliza una fórmula que calcula la proporción del "número de eventos de pipeline fallidos" (`ci.status=error`) sobre el "número de eventos de pipeline totales" (sin filtro), agrupados por `ci.pipeline.name` (para ser alertados una vez por cada pipeline). Para obtener más información, consulta [Información general en la sección Funciones][2]. +El siguiente ejemplo es un monitor de tasa de error de pipeline que utiliza una fórmula que calcula la proporción del "número de eventos de pipeline fallidos" (`ci.status=error`) sobre el "número de eventos de pipelines totales" (sin filtro), agrupados por `ci.pipeline.name` (para ser alertados una vez por cada pipeline). Para obtener más información, consulta [Información general en la sección Funciones][2]. {{< img src="monitors/monitor_types/ci_pipelines/define-the-Buscar-query-fnf.png" alt="Monitor definido a través de las etapas a, b, c, donde las etapas a, b son consultas y la etapa c calcula la tasa a partir de las dos etapas anteriores." style="width:1000%;" >}} -<div class="alert alert-info"><strong>Nota</strong>: Sólo se pueden utilizar hasta 2 consultas para crear la fórmula de evaluación por monitor.</div> +<div class="alert alert-info"><strong>Nota</strong>: Sólo se pueden utilizar hasta 2 consultas por monitor para crear la fórmula de evaluación.</div> [1]: /es/continuous_integration/pipelines/custom_commands/ [2]: /es/dashboards/functions/#overview @@ -76,18 +76,18 @@ El siguiente ejemplo es un monitor de tasa de error de pipeline que utiliza una ### Definir la consulta de búsqueda -1. Tipos frecuentes de monitores (opcional): proporciona una plantilla de consulta para cada uno de los tipos frecuentes de monitores, **Nuevos tests defectuosos**, **Fallos en los tests** y **Rendimiento de los tests**, que luego puedes personalizar. Para obtener más información sobre esta característica, consulta [Realizar un seguimiento de nuevos tests defectuosos](#track-new-flaky-tests). +1. Tipos frecuentes de monitores (opcional): Proporciona una plantilla de consulta para cada uno de los tipos frecuentes de monitores, **Nuevos tests defectuosos**, **Fallos en los tests** y **Rendimiento de los tests**, que luego puedes personalizar. Para obtener más información sobre esta característica, consulta [Realizar un seguimiento de nuevos tests defectuosos](#track-new-flaky-tests). 2. Crea una consulta de búsqueda utilizando la misma lógica de una búsqueda del explorador de tests CI. Por ejemplo, puedes buscar tests fallidos para la rama `main` del test de servicio `myapp` utilizando la siguiente consulta: `@test.status:fail @git.branch:main @test.service:myapp`. 3. Elige monitorizar un recuento de eventos de tests CI, una faceta o una medida: - * **CI Test event count** (Recuento de eventos de tests CI): utiliza la barra de búsqueda (opcional) y **no** selecciones una faceta o una medida. Datadog evalúa el número de eventos de tests CI, a lo largo de un periodo de tiempo seleccionado, y luego lo compara con las condiciones del umbral. - * **Dimensión**: selecciona la dimensión (faceta cualitativa) para emitir alertas sobre el `Unique value count` de la faceta. + * **CI Test event count** (Recuento de eventos de tests CI): utiliza la barra de búsqueda (opcional) y **no** selecciones una faceta o una medida. Datadog evalúa el número de eventos de tests de pipelines CI, a lo largo de un periodo de tiempo seleccionado, y luego lo compara con las condiciones del umbral. + * **Dimensión** (Dimensión): selecciona la dimensión (faceta cualitativa) para emitir alertas sobre el `Unique value count` de la faceta. * **Measure* (Medida): selecciona la medida (faceta cuantitativa) para emitir alertas sobre el valor numérico de la faceta del pipeline CI (similar a un monitor de métricas). Selecciona la agregación (`min`, `avg`, `sum`, `median`, `pc75`, `pc90`, `pc95`, `pc98`, `pc99` o `max`). 4. Agrupa los eventos de tests CI por múltiples dimensiones (opcional): * Todos los eventos de tests CI que coinciden con la consulta se agregan a grupos basados en el valor de hasta cuatro facetas. 5. Configura la estrategia de agrupación de alertas (opcional): * Si la consulta tiene un `group by`, se envía una alerta para cada origen en función de los parámetros del grupo. Se genera un evento de alerta para cada grupo que cumple las condiciones establecidas. Por ejemplo, puedes agrupar una consulta por `@test.full_name` para recibir una alerta distinta para cada nombre completo de test CI, cuando el número de errores es elevado. El nombre completo del test es una combinación del grupo de tests y el nombre del test, por ejemplo: `MySuite.myTest`. En Swift, el nombre completo del test es una combinación del grupo de tests, del conjunto de tests y del nombre del test, por ejemplo: `MyBundle.MySuite.myTest`. -{{< img src="monitors/monitor_types/ci_pipelines/define-the-search-query.png" alt="Consulta de Status:Error de CI configurado para agruparse por nombre de pipeline" style="width:100%;" >}} +{{< img src="monitors/monitor_types/ci_pipelines/define-the-search-query.png" alt="Consulta de estado de error de CI configurado para agruparse por nombre de pipeline" style="width:100%;" >}} #### Ejecución de tests con diferentes parámetros o configuraciones Utiliza `@test.fingerprint` en el monitor `group by` cuando tengas tests con el mismo nombre completo de test, pero diferentes parámetros o configuraciones de test. De esta forma, las alertas se activan para ejecuciones de tests con parámetros o configuraciones de test específicos. El uso de `@test.fingerprint` proporciona el mismo nivel de especificidad que la sección Estados de tests fallado y defectuoso, en la página **Información general sobre las confirmaciones**. @@ -100,7 +100,7 @@ El uso de `@test.full_name` en este caso activa la alerta, aunque el test haya s Puedes crear monitores de tests CI utilizando fórmulas y funciones. Esto puede utilizarse, por ejemplo, para crear monitores de la **tasa** de ocurrencia de un evento, como por ejemplo la tasa de fallo de un test (tasa de error). -El siguiente ejemplo es un monitor de la tasa de errores de tests que utiliza una fórmula que calcula la proporción del "número de eventos de test fallidos" (`@test.status:fail`) sobre el "número de eventos de test totales" (sin filtro), agrupados por `@test.full_name` (para ser alertados una vez por test). Para obtener más información, consulta [Información general en la sección Funciones][1]. +El siguiente ejemplo es un monitor de la tasa de errores de tests que utiliza una fórmula para calcular la proporción del "número de eventos de test fallidos" (`@test.status:fail`) sobre el "número de eventos de test totales" (sin filtro), agrupados por `@test.full_name` (para ser alertados una vez por test). Para obtener más información, consulta [Información general en la sección Funciones][1]. {{< img src="monitors/monitor_types/ci_tests/define-the-Buscar-query-fnf.png" alt="Monitor definido a través de las etapas a, b, c, donde las etapas a, b son consultas y la etapa c calcula la tasa a partir de las dos etapas anteriores."style="width:100%;" >}} @@ -127,10 +127,10 @@ En la sección `Notification message` de tu monitor, añade un texto similar al [2]: /es/monitors/notify/variables/?tab=is_match#conditional-variables {{% /tab %}} {{< /tabs >}} -### Definir las condiciones de alerta +### Definir condiciones de alerta -* Se activa cuando la métrica es `above`, `above or equal to`, `below` o `below or equal to` -* El umbral durante los últimos `5 minutes`, `15 minutes`, la última `1 hour` o el último`custom` para configurar un valor entre `1 minute` y `2 days` +* Se activa cuando la métrica es `above`, `above or equal to`, `below`, o `below or equal to` +* El umbral durante los últimos `5 minutes`, `15 minutes`, `1 hour` o `custom` para configurar un valor entre `1 minute` y `2 days` * Umbral de alerta `<NUMBER>` * Umbral de advertencia `<NUMBER>` @@ -140,13 +140,13 @@ Para obtener instrucciones detalladas sobre las opciones avanzadas de alerta (co ### Notificaciones -Para obtener instrucciones detalladas sobre la sección **Configurar notificaciones y automatizaciones**, consulta la página [Notificaciones][4]. +Para obtener instrucciones detalladas sobre la sección **Configure notifications and automations** (Configurar notificaciones y automatizaciones), consulta la página [Notificaciones][4]. #### Ejemplos y lista de los principales valores de incumplimiento Cuando se activa una test CI o un monitor de pipelines, pueden añadirse ejemplos o valores al mensaje de notificación. -| Configuración del monitor | Puede añadirse al mensaje de notificación | +| Configuración del monitor | Puede añadirse al mensaje de notificación | |----------------------------------|--------------------------------------| | Recuento de alertas simples no agrupadas | Hasta 10 ejemplos. | | Recuento de alertas simples agrupadas | Hasta 10 valores de facetas o medidas. | @@ -169,14 +169,14 @@ Incluye una tabla con 10 ejemplos de pipelines CI en la notificación de alerta: #### Comportamiento de las notificaciones cuando no hay datos -Un monitor que utiliza un recuento de eventos para su consulta de evaluación se resolverá, después del período de evaluación especificado sin datos, activando una notificación. Por ejemplo, un monitor configurado para enviar alertas sobre el número de errores de pipelines a través de una ventana de evaluación de cinco minutos se resolverá automáticamente después de cinco minutos sin ninguna ejecución de pipelines. +Un monitor que utiliza un recuento de eventos para su consulta de evaluación se resolverá después del período de evaluación especificado sin datos activando una notificación. Por ejemplo, un monitor configurado para enviar alertas sobre el número de errores de pipelines a través de una ventana de evaluación de cinco minutos se resolverá automáticamente después de cinco minutos sin ninguna ejecución de pipelines. -Como alternativa, Datadog recomienda utilizar fórmulas de tasa. Por ejemplo, en lugar de utilizar un monitor del número de fallos de pipelines (recuento), utiliza un monitor de la tasa de fallos de pipelines (fórmula), como `(number of pipeline failures)/(number of all pipeline executions)`. En este caso, cuando no haya datos, el denominador `(number of all pipeline executions)` será `0`, haciendo que la división `x/0` sea imposible de evaluar. El monitor mantendrá el estado conocido previo, en lugar de evaluarlo como `0`. +Como alternativa, Datadog recomienda utilizar fórmulas de tasa. Por ejemplo, en lugar de utilizar un monitor del número de fallos de pipelines (recuento), utiliza un monitor de la tasa de fallos de pipelines (fórmula), como por ejemplo `(number of pipeline failures)/(number of all pipeline executions)`. En este caso, cuando no haya datos, el denominador `(number of all pipeline executions)` será `0`, lo que hará que la división `x/0` sea imposible de evaluar. El monitor mantendrá el estado conocido previo, en lugar de evaluarlo como `0`. De este modo, si el monitor se activa debido a una explosión de fallos de pipelines que hace que la tasa de error supere el umbral del monitor, no se desactivará hasta que la tasa de error esté por debajo del umbral, lo que puede ocurrir en cualquier momento posterior. ## Ejemplos de monitores -A continuación se describen los casos de uso de monitores frecuentes. Las consultas de monitores pueden modificarse para filtrar por ramas específicas, autores o cualquier otra faceta de la aplicación. +A continuación se describen los casos frecuentes de uso de monitores. Las consultas de monitores pueden modificarse para filtrar por ramas específicas, autores o cualquier otra faceta de la aplicación. ### Activar alertas por retroceso del rendimiento La métrica `duration` puede utilizarse para identificar el pipeline y realizar tests de los retrocesos del rendimiento en cualquier rama. El envío de alertas sobre esta métrica puede evitar que los retrocesos del rendimiento se introduzcan en tu código base. @@ -186,22 +186,22 @@ La métrica `duration` puede utilizarse para identificar el pipeline y realizar ### Realizar un seguimiento de nuevos tests defectuosos Los monitores de tests tienen los tipos de monitores frecuentes `New Flaky Test`, `Test Failures` y `Test Performance` para facilitar la configuración del monitor. Estos monitores envían alertas cuando se añaden nuevos tests defectuosos a tu código base. La consulta se agrupa por `Test Full Name` para que no recibas alertas sobre el mismo test defectuoso más de una vez. -Una ejecución de test se marca como `flaky` si presenta fallos en la misma confirmación, después de algunos reintentos. Si presenta fallos varias veces (porque se han realizado varios reintentos), se añade la etiqueta (tag) `is_flaky` al primer test detectado como defectuoso. +Una ejecución de test se marca como `flaky` si presenta defectos en la misma confirmación después de algunos reintentos. Si presenta defectos varias veces (porque se han realizado varios reintentos), se añade la etiqueta (tag) `is_flaky` al primer test detectado como defectuoso. -Una ejecución de test se marca como `new flaky` si ese test en particular no se ha detectado como defectuoso en la misma rama o en la rama predeterminada. Sólo la primera ejecución de test que se detecta como un nuevo fallo se marca con la etiqueta `is_new_flaky` (independientemente del número de reintentos). +Una ejecución de test se marca como `new flaky` si ese test en particular no se ha detectado como defectuoso en la misma rama o en la rama predeterminada. Sólo la primera ejecución del test que se detecta como un nuevo defecto se marca con la etiqueta `is_new_flaky` (independientemente del número de reintentos). -{{< img src="ci/flaky_test_monitor.png" alt="Monitor de test CI defectuoso" style="width:100%;">}} +{{< img src="ci/flaky_test_monitor.png" alt="Monitor de tests CI defectuosos" style="width:100%;">}} Para obtener más información, consulta [Buscar y administrar tests CI][6]. ### Mantener el porcentaje de cobertura del código Las [métricas personalizadas][5], como el porcentaje de cobertura del código, pueden crearse y utilizarse en monitores. El siguiente monitor envía alertas cuando la cobertura del código cae por debajo de un determinado porcentaje, lo que puede ayudar con el mantenimiento del rendimiento de los tests a lo largo del tiempo. -{{< img src="ci/codecoveragepct_monitor_light.png" alt="Monitor de test CI defectuoso" style="width:100%;">}} +{{< img src="ci/codecoveragepct_monitor_light.png" alt="Monitor de tests CI defectuosos" style="width:100%;">}} Para obtener más información, consulta [Cobertura del código][7]. -## Leer más +## Para leer más {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/monitors/types/process.md b/content/es/monitors/types/process.md index 7873889f9499d..52e96fcdf3a63 100644 --- a/content/es/monitors/types/process.md +++ b/content/es/monitors/types/process.md @@ -21,12 +21,12 @@ title: Monitor de procesos en directo ## Información general -Los monitores de procesos en directo se basan en los datos recopilados por el [Agente de procesos][1]. Crea monitores que avisen o alerten basándose en el recuento de cualquier grupo de procesos en hosts o etiquetas (tags). +Los monitores de procesos en directo se basan en los datos recopilados por el [Agent de procesos][1]. Crea monitores que avisen o alerten en función del recuento de cualquier grupo de procesos en hosts o etiquetas (tags). Los monitores de procesos en directo tienen una mayor utilidad en los siguientes casos: - Asegurar que se están ejecutando suficientes instancias de un proceso de larga duración no contenedorizado. -- Indicar cuando un proceso específico se está ejecutando. +- Indicar cuándo un proceso específico se está ejecutando. **Nota**: Sólo los procesos de larga duración son recopilados por el Agent. Los monitores en procesos que duran menos de 20 segundos pueden ser defectuosos. @@ -35,7 +35,7 @@ Los monitores de procesos en directo tienen una mayor utilidad en los siguientes Hay dos formas de crear un monitor de procesos en directo: - Utilizar la navegación principal: **Monitors --> New Monitor --> Live Process* (Monitores > Nuevo monitor > Proceso en directo). -- En la [página de procesos en directo][4], busca un proceso que quieras monitorizar. A continuación, haz clic en el menú desplegable situado junto a **+New Metric** (+Nueva métrica) y haz clic en **Create monitor* (Crear monitor)*. +- En la [página de procesos en directo][4], busca un proceso que quieras monitorizar. A continuación, haz clic en el menú desplegable situado junto a **+New Metric** (+Nueva métrica) y haz clic en **Create monitor** (Crear monitor)*. ### Seleccionar procesos @@ -45,7 +45,7 @@ Puedes utilizar etiquetas o un texto de búsqueda impreciso para filtrar todos l Después de definir tu búsqueda, se muestra un gráfico sobre las entradas de las búsquedas, con una aproximación del número total de procesos encontrados. Se recomienda que el monitor se limite a unos pocos miles de procesos. Utiliza etiquetas adicionales para reducir la búsqueda o considera la posibilidad de dividir un monitor en varios, si es necesario. Para obtener datos más específicos, consulta la [página de procesos en directo][4]. -#### Búsqueda de etiquetas +#### Búsqueda por etiquetas Filtra los procesos que quieres monitorizar por etiquetas. Datadog recomienda intentar filtrar procesos por sus etiquetas antes de utilizar la búsqueda de texto completo. @@ -68,18 +68,18 @@ Si no puedes delimitar un proceso para lograr la especificidad que buscas utiliz `Multi Alert`: aplica la alerta a cada fuente en función de tus parámetros de grupo. Recibirás una alerta por cada grupo que cumple las condiciones establecidas. -### Definir tus condiciones de alerta +### Definir condiciones de alerta - La posición del recuento del proceso fue `above`, `above or equal to`, `below` o `below or equal to` -- del umbral durante los últimos `5 minutes`, `15 minutes`, `1 hour` o mayor. Además, puedes utilizar `custom` para establecer un valor entre 5 minutos y 24 horas. +- al umbral durante los últimos `5 minutes`, `15 minutes`, `1 hour`, o mayor. Además, puedes utilizar `custom` para configurar un valor entre 5 minutos y 24 horas. -En este caso, el recuento del proceso se refiere al número de todos las procesos coincidentes que estuvieron vivos durante el intervalo de tiempo. +En este caso, el recuento del proceso se refiere al número de todos las procesos coincidentes que estuvieron activos durante el intervalo de tiempo. -Utiliza umbrales para establecer un valor numérico que active una alerta. Datadog tiene dos tipos de notificaciones: alerta y advertencia. Los monitores de procesos en vivo se recuperan automáticamente en función del umbral de alerta o advertencia. +Utiliza umbrales para establecer un valor numérico que active una alerta. Datadog cuenta con dos tipos de notificaciones: alertas y advertencias. Los monitores de procesos en directo se recuperan automáticamente en función del umbral de alerta o advertencia. #### Prácticas recomendadas para la selección de periodos de tiempo -Los monitores de procesos en directo utilizan una [ventana temporal móvil][7] para evaluar el recuento de procesos. En otras palabras, cada minuto, el monitor analiza los últimos X minutos y se activa si se cumple la condición de alerta. Se desaconseja el uso de ventanas de evaluación de menos de 5 minutos para evitar falsos positivos debidos a interrupciones esporádicas de la red entre el Agent del proceso y Datadog. +Los monitores de procesos en directo utilizan una [ventana temporal móvil][7] para evaluar el recuento de procesos. En otras palabras, cada minuto, el monitor analiza los últimos X minutos y se activa si se cumple la condición de alerta. Se desaconseja el uso de ventanas de evaluación de menos de 5 minutos para evitar falsos positivos debidos a interrupciones esporádicas de la red entre el Agent de procesos y Datadog. ### Condiciones de alerta avanzadas @@ -87,14 +87,14 @@ Para obtener instrucciones detalladas sobre las opciones avanzadas de alerta (re ### Notificaciones -Para obtener instrucciones detalladas sobre la sección **Configurar notificaciones y automatizaciones**, consulta la página [Notificaciones][6]. +Para obtener instrucciones detalladas sobre la sección **Configure notifications and automations** (Configurar notificaciones y automatizaciones), consulta la página [Notificaciones][6]. -## Leer más +## Para leer más {{< partial name="whats-next/whats-next.html" >}} [1]: /es/infrastructure/process/ -[2]: https://app.datadoghq.com/monitors#create/live_process +[2]: https://app.datadoghq.com/monitors/create/live_process [3]: /es/infrastructure/process/#search-syntax [4]: https://app.datadoghq.com/process [5]: /es/monitors/configuration/#advanced-alert-conditions diff --git a/content/es/network_monitoring/performance/setup.md b/content/es/network_monitoring/performance/setup.md new file mode 100644 index 0000000000000..9ba5b7f70d42d --- /dev/null +++ b/content/es/network_monitoring/performance/setup.md @@ -0,0 +1,498 @@ +--- +aliases: +- /es/network_performance_monitoring/installation/ +description: Recopila tus datos de red con el Agent. +further_reading: +- link: https://www.datadoghq.com/blog/network-performance-monitoring + tag: Blog + text: Network Performance Monitoring +- link: https://www.datadoghq.com/blog/monitor-containers-with-npm/ + tag: Blog + text: Datadog NPM con contenedores y redes con mallas de servicios +- link: /network_monitoring/devices + tag: Documentación + text: Monitorización de dispositivos de red +- link: https://www.datadoghq.com/blog/monitor-consul-with-datadog-npm/ + tag: Blog + text: Datadog NPM ya es compatible con la red Consul +title: Configuración de Network Performance Monitoring +--- + +Datadog Network Performance Monitoring (NPM) te ofrece visibilidad del tráfico de red entre servicios, contenedores, zonas de disponibilidad y cualquier otra etiqueta (tag) en Datadog para que puedas: + +- Localizar dependencias de servicios inesperadas o latentes. +- Optimizar la costosa comunicación entre regiones o nubes múltiples. +- Identificar las interrupciones en las regiones proveedoras de la nube y las herramientas de terceros. +- Solucionar problemas de detección de servicios defectuosos con métricas del servidor DNS. + +Network Performance Monitoring requiere el [Datadog Agent v6.14 o posterior][1]. Dado que las métricas se recopilan automáticamente en versiones superiores del Agent, consulta la [sección de configuración de métricas][2] para configurar la monitorización DNS. + +## Plataformas compatibles + +### Sistemas operativos + +#### Sistema operativo Linux + +La recopilación de datos se realiza utilizando eBPF, por lo que Datadog requiere mínimamente plataformas que tengan versiones del kernel Linux subyacente 4.4.0 o posteriores o que tengan backports de las características de eBPF. NPM es compatible con las siguientes distribuciones de Linux: + +- Ubuntu v16.04 o posterior +- Debian v9 o posterior +- Fedora v26 o posterior +- SUSE v15 o posterior +- Amazon AMI v2016.03 o posterior +- Amazon Linux v2 +- CentOS/RHEL v7.6 o posterior + +**Nota:** Existe una excepción al requisito del kernel v4.4.0 o posterior para [CentOS/RHEL v7.6 o posterior][3]. La función [DNS Resolution][4] no es compatible con CentOS/RHEL v7.6. + +#### Sistema operativo Windows + +La recopilación de datos se realiza mediante un controlador de dispositivo kernel de red. La compatibilidad está disponible a partir del Datadog Agent versión 7.27.1, para versiones de Windows 2012 R2 (y sistemas operativos de escritorio equivalentes, incluido Windows 10) y posteriores. + +#### macOS + +Datadog Network Performance Monitoring no es compatible con plataformas macOS. + +### Contenedores + +NPM te ayuda a visualizar la arquitectura y el rendimiento de tus entornos contenedorizados y orquestados, con compatibilidad para [Docker][5], [Kubernetes][6], [ECS][7] y otras tecnologías de contenedor. Las integraciones de contenedores de Datadog te permiten agregar tráfico por entidades significativas, como contenedores, tareas, pods, clústeres y despliegues, con etiquetas predefinidas como `container_name`, `task_name` y `kube_service`. + +NPM no es compatible con Autopilot de Google Kubernetes Engine (GKE). + +### Herramientas de enrutamiento en la red + +#### Istio + +Con NPM, puedes asignar la comunicación de red entre contenedores, pods y servicios a través de la malla de servicios Istio. + +Datadog monitoriza todos los aspectos de tu entorno Istio para que también puedas: + +- Evaluar el estado de Envoy y el plano de control de Istio con [logs][8]. +- Desglosar el rendimiento de tu malla de servicios con [métricas][8] de solicitudes, ancho de banda y consumo de recursos. +- Examinar trazas (traces) distribuidas de aplicaciones que realizan transacciones a lo largo de la malla con [APM][9]. + +NPM es compatible con Istio v1.6.4 o posterior con el [Datadog Agent v7.24.1 o posterior][1]. + +Para obtener más información sobre la monitorización de tu entorno Istio con Datadog, [consulta el blog de Istio][10]. + +#### Cilium + +Network Performance Monitoring es compatible con instalaciones **Cilium**, siempre que se cumplan los siguientes requisitos: +1) Cilium v1.6 y posteriores, y +2) Kernel v5.1.16 y posteriores, o v4.19.57 y posteriores para kernels 4.19.x + +### Sistemas de aprovisionamiento + +Network Performance Monitoring es compatible con el uso de los siguientes sistemas de aprovisionamiento: + +- Daemonset / Helm v1.38.11 o posterior: Consulta el [Helm Chart de Datadog][11] +- Chef v12.7 o posterior: Consulta la [receta de Datadog Chef][12] +- Ansible v2.6 o posterior: Consulta el [rol Ansible de Datadog][13] + +## Configuración + +Dado que la potencia y el enfoque de esta herramienta se centran en el análisis del tráfico entre endpoints de red y la asignación de dependencias red, recomendamos instalarla en un subconjunto significativo de tu infraestructura y en un **mínimo de 2 hosts** para maximizar su valor. + +{{< tabs >}} +{{% tab "Agent (Linux)" %}} + +Para habilitar Network Performance Monitoring con el Datadog Agent, utiliza las siguientes configuraciones: + +1. **Si utilizas una versión del Agent anterior a v6.14 o posterior**, habilita primero [la recopilación de procesos en directo][1], de lo contrario, omite este paso. + +2. Copia la configuración de ejemplo de sonda del sistema: + + ```shell + sudo -u dd-agent install -m 0640 /etc/datadog-agent/system-probe.yaml.example /etc/datadog-agent/system-probe.yaml + ``` + +3. Edita `/etc/datadog-agent/system-probe.yaml` para definir el indicador de habilitación como `true`: + + ```yaml + network_config: # use system_probe_config for Agent's older than 7.24.1 + ## @param enabled - boolean - optional - default: false + ## Set to true to enable Network Performance Monitoring. + # + enabled: true + ``` + +4. **Si estás ejecutando una versión del Agent anterior a v6.18 o v7.18**, inicia manualmente la sonda del sistema y habilítala para que se inicie al arrancar (a partir de v6.18 y v7.18, la sonda del sistema se inicia automáticamente al arrancar el Agent): + + ```shell + sudo systemctl start datadog-agent-sysprobe + sudo systemctl enable datadog-agent-sysprobe + ``` + + **Nota**: Si el comando `systemctl` no está disponible en tu sistema, inícialo con el siguiente comando: `sudo service datadog-agent-sysprobe start` y luego configúralo para que se inicie al arrancar, antes de que se inicie `datadog-agent`. + +5. [Reinicia el Agent][2]. + + ```shell + sudo systemctl restart datadog-agent + ``` + + **Nota**: Si el comando `systemctl` no está disponible en tu sistema, ejecuta el siguiente comando: `sudo service datadog-agent restart`. + +### Sistemas habilitados por SELinux + +En sistemas con SELinux habilitado, el binario de la sonda del sistema necesita permisos especiales para utilizar las funciones de eBPF. + +El paquete RPM del Datadog Agent para sistemas basados en CentOS incluye una [política SELinux][3] para conceder estos permisos al binario de la sonda del sistema. + +Si necesitas utilizar Network Performance Monitoring en otros sistemas con SELinux habilitado, haz lo siguiente: + +1. Modifica la [política SELinux][3] de base para que coincida con tu configuración de SELinux. + Dependiendo de tu sistema, algunos tipos o atributos pueden no existir (o pueden tener nombres diferentes). + +2. Compila la política en un módulo; suponiendo que el archivo de tu política se llame `system_probe_policy.te`: + + ```shell + checkmodule -M -m -o system_probe_policy.mod system_probe_policy.te + semodule_package -o system_probe_policy.pp -m system_probe_policy.mod + ``` + +3. Aplica el módulo a tu sistema SELinux: + + ```shell + semodule -v -i system_probe_policy.pp + ``` + +4. Cambia el tipo de binario de la sonda del sistema para utilizar el que está definido en la política; suponiendo que el directorio de instalación de tu Agent sea `/opt/datadog-agent`: + + ```shell + semanage fcontext -a -t system_probe_t /opt/datadog-agent/embedded/bin/system-probe + restorecon -v /opt/datadog-agent/embedded/bin/system-probe + ``` + +5. [Reinicia el Agent][2]. + +**Nota**: Estas instrucciones requieren tener algunas funciones de SELinux instaladas en el sistema (`checkmodule`, `semodule`, `semodule_package`, `semanage` y `restorecon`), disponibles en la mayoría de las distribuciones estándar (Ubuntu, Debian, RHEL, CentOS, SUSE). Consulta tu distribución para ver más detalles sobre cómo instalarlas. + +Si estas funciones no existen en tu distribución, sigue el mismo procedimiento pero en este caso utiliza las funciones proporcionadas por tu distribución. + + +[1]: /es/infrastructure/process/?tab=linuxwindows#installation +[2]: /es/agent/configuration/agent-commands/#restart-the-agent +[3]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/selinux/system_probe_policy.te +{{% /tab %}} +{{% tab "Agent (Windows)" %}} + +La recopilación de datos de Windows depende de un controlador de filtro para recopilar los datos de red. + +Para habilitar Network Performance Monitoring en hosts de Windows: + +1. Instala el [Datadog Agent][1] (versión 7.27.1 o posterior) con el componente del controlador de red habilitado. + + [OBSOLETO] (versión 7.44 o anterior) Durante la instalación, pasa `ADDLOCAL="MainApplication,NPM"` al comando `msiexec` o selecciona "Network Performance Monitoring" cuando ejecutes la instalación del Agent a través de la GUI. + +1. Edita `C:\ProgramData\Datadog\system-probe.yaml` para definir el indicador habilitado como `true`: + + ```yaml + network_config: + enabled: true + ``` +3. [Reinicia el Agent][2]. + + Para PowerShell (`powershell.exe`): + ```shell + restart-service -f datadogagent + ``` + Para Command Prompt (`cmd.exe`): + ```shell + net /y stop datadogagent && net start datadogagent + ``` +**Nota**: Network Performance Monitoring sólo monitoriza hosts de Windows y no contenedores de Windows. + + +[1]: /es/agent/basic_agent_usage/windows/?tab=commandline +[2]: /es/agent/configuration/agent-commands/#restart-the-agent +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Para habilitar Network Performance Monitoring con Kubernetes utilizando Helm, añade lo siguiente a tu archivo `values.yaml`.</br> +**Se requiere Helm chart v2.4.39 o posterior**. Para obtener más información, consulta la [documentación de Datadog Helm Chart][1]. + + ```yaml + datadog: + networkMonitoring: + enabled: true + ``` + +**Nota**: Si recibes un error de permisos al configurar NPM en tu entorno Kubernetes: `Error: error enabling protocol classifier: permission denied`, añade lo siguiente a tu `values.yaml`. (Consulta esta [sección][5] en el Helm chart): + + ```yaml + agents: + podSecurity: + apparmor: + enabled: true + ``` + +Si no utilizas Helm, puedes habilitar Network Performance Monitoring con Kubernetes desde cero: + +1. Descarga la plantilla [datadog-agent.yaml manifest][2]. +2. Sustituye `<DATADOG_API_KEY>` por tu [clave de API Datadog][3]. +3. (Opcional) **Configura tu sitio Datadog**. Si utilizas el sitio Datadog EU, configura la variable de entorno `DD_SITE` como `datadoghq.eu` en el manifiesto `datadog-agent.yaml`. +4. **Despliega el DaemonSet** con el comando: + + ```shell + kubectl apply -f datadog-agent.yaml + ``` + +Si el [Agent ya se ejecuta con un manifiesto][4]: + +1. Añade la anotación `container.apparmor.security.beta.kubernetes.io/system-probe: unconfined` en la plantilla `datadog-agent`: + + ```yaml + spec: + selector: + matchLabels: + app: datadog-agent + template: + metadata: + labels: + app: datadog-agent + name: datadog-agent + annotations: + container.apparmor.security.beta.kubernetes.io/system-probe: unconfined + ``` + +2. Habilita el proceso de recopilación y la sonda del sistema con las siguientes variables de entorno en el DaemonSet del Agent. Si estás ejecutando un contenedor por cada proceso del Agent, añade las siguientes variables de entorno al Agent de proceso, de lo contrario, añádelas al contenedor del Agent. + + ```yaml + # (...) + env: + # (...) + - name: DD_PROCESS_AGENT_ENABLED + value: 'true' + - name: DD_SYSTEM_PROBE_ENABLED + value: 'true' + - name: DD_SYSTEM_PROBE_EXTERNAL + value: 'true' + - name: DD_SYSPROBE_SOCKET + value: /var/run/sysprobe/sysprobe.sock + ``` + +3. Monta los siguientes volúmenes adicionales en el contenedor `datadog-agent`: + + ```yaml + # (...) + spec: + serviceAccountName: datadog-agent + containers: + - name: datadog-agent + image: 'gcr.io/datadoghq/agent:latest' + # (...) + volumeMounts: + - name: procdir + mountPath: /host/proc + readOnly: true + - name: cgroups + mountPath: /host/sys/fs/cgroup + readOnly: true + - name: debugfs + mountPath: /sys/kernel/debug + - name: sysprobe-socket-dir + mountPath: /var/run/sysprobe + ``` + +4. Añade una nueva sonda del sistema como elemento adicional del Agent: + + ```yaml + # (...) + spec: + serviceAccountName: datadog-agent + containers: + - name: datadog-agent + image: 'gcr.io/datadoghq/agent:latest' + # (...) + - name: system-probe + image: 'gcr.io/datadoghq/agent:latest' + imagePullPolicy: Always + securityContext: + capabilities: + add: + - SYS_ADMIN + - SYS_RESOURCE + - SYS_PTRACE + - NET_ADMIN + - NET_BROADCAST + - NET_RAW + - IPC_LOCK + - CHOWN + command: + - /opt/datadog-agent/embedded/bin/system-probe + env: + - name: DD_SYSPROBE_SOCKET + value: /var/run/sysprobe/sysprobe.sock + resources: + requests: + memory: 150Mi + cpu: 200m + limits: + memory: 150Mi + cpu: 200m + volumeMounts: + - name: procdir + mountPath: /host/proc + readOnly: true + - name: cgroups + mountPath: /host/sys/fs/cgroup + readOnly: true + - name: debugfs + mountPath: /sys/kernel/debug + - name: sysprobe-socket-dir + mountPath: /var/run/sysprobe + ``` + +5. Por último, añada los siguientes volúmenes a tu manifiesto: + + ```yaml + volumes: + - name: sysprobe-socket-dir + emptyDir: {} + - name: debugfs + hostPath: + path: /sys/kernel/debug + ``` + + +[1]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/README.md#enabling-system-probe-collection +[2]: /resources/yaml/datadog-agent-npm.yaml +[3]: https://app.datadoghq.com/organization-settings/api-keys +[4]: /es/agent/kubernetes/ +[5]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/values.yaml#L1519-L1523 +{{% /tab %}} +{{% tab "Operator" %}} +<div class="alert alert-warning">El Datadog Operator está disponible de forma general en la versión `1.0.0` y concilia la versión `v2alpha1` del recurso personalizado del Datadog Agent. </div> + +[El Datadog Operator][1] permite desplegar el Datadog Agent en Kubernetes y OpenShift e informa sobre la situación y los errores de despliegue en el estado de tu recurso personalizado. Además, sus opciones de configuración de nivel superior limitan el riesgo de configuraciones erróneas. + +Para habilitar Network Performance Monitoring en Operator, utiliza la siguiente configuración: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +metadata: + name: placeholder + namespace: placeholder +spec: + features: + npm: + enabled: true +``` + +[1]: https://github.com/DataDog/datadog-operator +{{% /tab %}} +{{% tab "Docker" %}} + +Para habilitar Network Performance Monitoring en Docker, utiliza la siguiente configuración al iniciar el Agent contenedor: + +```shell +docker run --cgroupns host \ +--pid host \ +-e DD_API_KEY="<DATADOG_API_KEY>" \ +-e DD_SYSTEM_PROBE_NETWORK_ENABLED=true \ +-e DD_PROCESS_AGENT_ENABLED=true \ +-v /var/run/docker.sock:/var/run/docker.sock:ro \ +-v /proc/:/host/proc/:ro \ +-v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ +-v /sys/kernel/debug:/sys/kernel/debug \ +--security-opt apparmor:unconfined \ +--cap-add=SYS_ADMIN \ +--cap-add=SYS_RESOURCE \ +--cap-add=SYS_PTRACE \ +--cap-add=NET_ADMIN \ +--cap-add=NET_BROADCAST \ +--cap-add=NET_RAW \ +--cap-add=IPC_LOCK \ +--cap-add=CHOWN \ +gcr.io/datadoghq/agent:latest +``` + +Sustituye `<DATADOG_API_KEY>` por tu [clave de API Datadog][1]. + +Si utilizas `docker-compose`, añade lo siguiente al servicio del Datadog Agent. + +``` +version: '3' +services: + datadog: + image: "gcr.io/datadoghq/agent:latest" + environment: + - DD_SYSTEM_PROBE_NETWORK_ENABLED=true + - DD_PROCESS_AGENT_ENABLED=true + - DD_API_KEY=<DATADOG_API_KEY> + volumes: + - /var/run/docker.sock:/var/run/docker.sock:ro + - /proc/:/host/proc/:ro + - /sys/fs/cgroup/:/host/sys/fs/cgroup:ro + - /sys/kernel/debug:/sys/kernel/debug + cap_add: + - SYS_ADMIN + - SYS_RESOURCE + - SYS_PTRACE + - NET_ADMIN + - NET_BROADCAST + - NET_RAW + - IPC_LOCK + - CHOWN + security_opt: + - apparmor:unconfined +``` + +[1]: https://app.datadoghq.com/organization-settings/api-keys +{{% /tab %}} +{{% tab "ECS" %}} +Para configurar en Amazon ECS, consulta la página de documentación de [Amazon ECS][1]. + + +[1]: /es/agent/amazon_ecs/#network-performance-monitoring-collection-linux-only +{{% /tab %}} +{{< /tabs >}} + +{{< site-region region="us,us3,us5,eu" >}} +### Resolución mejorada + +Opcionalmente, habilita la recopilación de recursos para integraciones en la nube para permitir a Network Performance Monitoring detectar entidades gestionadas por la nube. +- Instala la [integración Azure][101] para obtener visibilidad de los balanceadores de carga y las pasarelas de aplicaciones de Azure. +- Instala la [integración AWS][102] para obtener visibilidad del balanceador de carga AWS. **Debes habilitar la recopilación de métricas ENI y EC2**. + +Para obtener más información sobre estas funciones, consulta la [resolución mejorada de servicios en la nube][103]. + +### Conexiones fallidas (beta privada) + +<div class="alert alert-warning">Las conexiones fallidas están en beta privada. Para empezar a ver <a href="/network_monitoring/performance/network_analytics/?tab=loadbalancers#tcp">métricas de conexiones fallidas</a>, ponte en contacto con tu representante de Datadog y solicita acceso.</div> + +Para permitir que el Agent empiece a recopilar datos sobre conexiones fallidas, añade el siguiente indicador a tu archivo `/etc/datadog-agent/system-probe.yaml` (`C:\ProgramData\Datadog\system-probe.yaml` para Windows). + +```yaml +network_config: # utilizar la configuración de la sonda del sistema para versiones del Agent anteriores a v7.24.1 + ## @param habilitado - booleano - opcional - por defecto: falso + ## Configurar como verdadero para habilitar Network Performance Monitoring. + # + enabled: true + enable_tcp_failed_connections: true + +``` + +[101]: /es/integrations/azure +[102]: /es/integrations/amazon_web_services/#resource-collection +[103]: /es/network_monitoring/performance/network_analytics/#cloud-service-enhanced-resolution + +{{< /site-region >}} + +## Referencias adicionales +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/es/network_monitoring/dns/#setup +[3]: https://www.redhat.com/en/blog/introduction-ebpf-red-hat-enterprise-linux-7 +[4]: /es/network_monitoring/dns/ +[5]: https://docs.datadoghq.com/es/agent/docker/ +[6]: https://docs.datadoghq.com/es/agent/kubernetes/ +[7]: https://docs.datadoghq.com/es/agent/amazon_ecs +[8]: https://docs.datadoghq.com/es/integrations/istio/ +[9]: https://docs.datadoghq.com/es/tracing/setup_overview/proxy_setup/?tab=istio +[10]: https://www.datadoghq.com/blog/istio-datadog/ +[11]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/README.md#enabling-system-probe-collection +[12]: https://github.com/DataDog/chef-datadog +[13]: https://github.com/DataDog/ansible-datadog/blob/master/README.md#system-probe \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/tracking_user_actions.md b/content/es/real_user_monitoring/browser/tracking_user_actions.md index a76164592de4e..003bae254a719 100644 --- a/content/es/real_user_monitoring/browser/tracking_user_actions.md +++ b/content/es/real_user_monitoring/browser/tracking_user_actions.md @@ -5,7 +5,7 @@ algolia: further_reading: - link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ tag: Blog - text: Presentación del Real User Monitoring de Datadog + text: Presentación del Real User Monitoring (RUM) de Datadog - link: /real_user_monitoring/explorer/ tag: Documentación text: Explorar tus vistas en Datadog @@ -44,7 +44,7 @@ El SDK del RUM Browser realiza un rastreo automático de los clics. Se crea una ## Métricas del tiempo de acción -Para obtener información sobre los atributos por defecto para todos los tipos de eventos de RUM, consulta [Datos de RUM Browser recopilados][3]. +Para obtener información sobre los atributos predeterminados para todos los tipos de eventos de RUM, consulta [Datos de RUM Browser recopilados][3]. | Métrica | Tipo | Descripción | |--------------|--------|--------------------------| @@ -124,4 +124,4 @@ Para más información, consulta [Enviar acciones personalizadas][5]. [3]: /es/real_user_monitoring/browser/data_collected/#default-attributes [4]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2160 [5]: /es/real_user_monitoring/guide/send-rum-custom-actions -[6]: /es/real_user_monitoring/session_replay/privacy_options#mask-action-names \ No newline at end of file +[6]: /es/data_security/real_user_monitoring/#mask-action-names \ No newline at end of file diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/data_collected/_index.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/data_collected/_index.md new file mode 100644 index 0000000000000..2c5a83de97d9b --- /dev/null +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/data_collected/_index.md @@ -0,0 +1,27 @@ +--- +further_reading: +- link: https://github.com/DataDog/dd-sdk-android + tag: Código fuente + text: Código fuente de dd-sdk-android +- link: https://github.com/DataDog/dd-sdk-ios + tag: Código fuente + text: Código fuente de dd-sdk-ios +- link: https://github.com/DataDog/dd-sdk-flutter + tag: Código fuente + text: Código fuente de dd-sdk-flutter +- link: https://github.com/DataDog/dd-sdk-reactnative + tag: Código fuente + text: Código fuente de dd-sdk-reactnative +- link: https://github.com/DataDog/dd-sdk-roku + tag: Código fuente + text: Código fuente de dd-sdk-roku +- link: /real_user_monitoring + tag: Documentación + text: Explorar RUM de Datadog +title: Datos recopilados +type: multi-code-lang +--- + +Para obtener información sobre la recopilación de datos en la monitorización de RUM, elige una plataforma: + +{{< partial name="rum/rum-getting-started-mobile-data-collected.html" >}} \ No newline at end of file diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/codepush.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/codepush.md index 32cb0360439e2..4e8f9b7ade4f0 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/codepush.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/codepush.md @@ -108,7 +108,7 @@ Crea un archivo gitignored `datadog-ci.json` en la raíz de tu proyecto que cont } ``` -También puedes exportarlas como variables de entorno `Datadog_API_KEY` y `Datadog_SITE`. +También puedes exportarlas como variables de entorno `DATADOG_API_KEY` y `DATADOG_SITE`. Cuando lances un nuevo paquete de CodePush, especifica un directorio de salida para los mapas de fuente y el paquete: @@ -155,6 +155,14 @@ Para obtener la `codepushVersion`, puedes codificarla o utilizar [`CodePush.getU A continuación, carga tus mapas de fuente mediante el comando [`datadog-ci react-native upload`][5] y asegúrate de que el argumento `--release-version` coincide con lo establecido en la configuración del SDK. +## Envío de datos cuando el dispositivo está desconectado + +RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En caso de zonas con baja conexión de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local en lotes. + +Cada lote sigue la especificación de entrada. Se envían tan pronto como la red está disponible y la batería está lo suficientemente cargada como para garantizar que el SDK de Datadog no afecte la experiencia del usuario final. Si la red no está disponible mientras tu aplicación está en primer plano o si falla una carga de datos, el lote se conserva hasta que se lo pueda enviar con éxito. + +Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. Para garantizar que el SDK no utilice demasiado espacio de disco, los datos del disco se descartan automáticamente si son demasiado antiguos. + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md index 48a3bcaec7f68..a1868be6544e4 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md @@ -29,9 +29,9 @@ Datadog Real User Monitoring (RUM) te permite visualizar y analizar el rendimien ### Especificar los detalles de la aplicación en la interfaz de usuario -1. En Datadog, ve a [**Experiencia digital** > **Añadir una aplicación**][1]. +1. En Datadog, navega a [**Digital Experience** > **Add an Application**][1] (Experiencia digital > Añadir una aplicación). 2. Elige `Flutter` como tipo de aplicación. -3. Proporciona un nombre de aplicación para generar un ID de aplicación Datadog y un token de cliente únicos. +3. Proporciona un nombre de aplicación para generar un ID de aplicación de Datadog y un token de cliente únicos. 4. Para desactivar la recopilación automática de datos del usuario para la IP del cliente o los datos de geolocalización, desactiva las casillas de esas configuraciones. Para obtener más información, consulta [Recopilación de datos de RUM Flutter][7]. {{< img src="real_user_monitoring/flutter/flutter-new-application.png" alt="Crear una aplicación RUM para Flutter en Datadog" style="width:90%;">}} @@ -43,23 +43,23 @@ Para garantizar la seguridad de tus datos, utiliza un token de cliente. Para obt En primer lugar, asegúrate de tener tu entorno configurado correctamente para cada plataforma. <div class="alert alert-info"> -Datadog es compatible con la <txprotected>monitorización</txprotected> de Flutter para iOS y Android para Flutter 3.0+. +Datadog es compatible con la monitorización de Flutter para iOS y Android para Flutter 3.0+. </div> -Datadog no es compatible oficialmente con Flutter Web, pero el actual SDK de Flutter para aplicaciones móviles permite obtener alguna <txprotected>monitorización</txprotected> predefinida. Estas son las limitaciones conocidas: +Datadog no es compatible oficialmente con Flutter Web, pero el actual SDK de Flutter para aplicaciones móviles permite obtener alguna monitorización predefinida. Estas son las limitaciones conocidas: * Todas las acciones notificadas desde Flutter se etiquetan con el tipo `custom`. * No se admiten acciones de ejecución prolongada (`startAction` / `stopAction`). - * No se admite la notificación manual de recursos RUM (`startResource` / `stopResource`). + * No se admite la notificación manual de recursos de RUM (`startResource` / `stopResource`). * Los asignadores de eventos no son compatibles actualmente. * Las etiquetas (tags) en los registradores no son compatibles actualmente. * `addUserExtraInfo` no es compatible. * `stopSession` no es compatible. -No está prevista la compatibilidad con Flutter Web, pero las prioridades de Datadog se reevalúan a menudo en función de tus comentarios. Si tienes una aplicación Flutter Web y quieres utilizar Datadog RUM para monitorizar tu rendimiento, ponte en contacto con tu equipo de atención al cliente y solicita esta función. +No está prevista la compatibilidad con Flutter Web, pero las prioridades de Datadog se reevalúan a menudo en función de tus comentarios. Si tienes una aplicación Flutter Web y quieres utilizar Datadog RUM para monitorizar tu rendimiento, ponte en contacto con tu equipo de atención al cliente y solicita esta característica. #### iOS -Tu archivo Podfile iOS, ubicado en `ios/Podfile`, debe tener `use_frameworks!` configurado en true (que es el valor predeterminado en Flutter) y debe configurar su versión de iOS de destino >= 11.0. +Tu archivo iOS Podfile, ubicado en `ios/Podfile`, debe tener `use_frameworks!` configurado en true (que es el valor predeterminado en Flutter) y debes configurar su versión de iOS de destino >= 11.0. Esta restricción suele comentarse en la línea superior del Podfile y debe decir: @@ -75,7 +75,7 @@ Para Android, tu versión de `minSdkVersion` debe ser >= 21 y si estás utilizan ### Web -Para Web, añade lo siguiente a tu `index.html` debajo de la etiqueta `head` etiquetar, para el sitio **{{<region-param key="dd_site_name">}}**: +Para Web, añade lo siguiente a tu `index.html` debajo de la etiqueta `head` , para el sitio **{{<region-param key="dd_site_name">}}**: {{< site-region region="us" >}} ```html <script type="text/javascript" src="https://www.datadoghq-browser-agent.com/us1/v5/datadog-logs.js"></script> @@ -123,7 +123,7 @@ Esto carga los SDK del navegador Datadog entregados por CDN para logs y RUM. La dependencies: datadog_flutter_plugin: ^2.0.0 ``` -2. Crea un objeto de configuración para cada función de Datadog (como logs o RUM) con el siguiente fragmento. Si no pasas una configuración para una función determinada, esa función se desactiva. +2. Crea un objeto de configuración para cada característica de Datadog (como logs o RUM) con el siguiente fragmento. Si no pasas una configuración para una característica determinada, esa característica se desactiva. ```dart // Determine the user's consent to be tracked @@ -140,7 +140,7 @@ Esto carga los SDK del navegador Datadog entregados por CDN para logs y RUM. La ); ``` -Para más información sobre las opciones disponibles de configuración, consulta la [Documentación del objeto de Configuración Datadog][3]. +Para más información sobre las opciones disponibles de configuración, consulta la [Documentación del objeto DatadogConfiguration][3]. Para garantizar la seguridad de tus datos, utiliza un token de cliente. No puedes utilizar claves de la API de Datadog para configurar el complemento de Datadog Flutter. @@ -149,7 +149,7 @@ Para garantizar la seguridad de tus datos, utiliza un token de cliente. No puede ## Instrumentar tu solicitud -### Inicializar el biblioteca +### Inicializar la biblioteca Puedes inicializar RUM utilizando uno de dos métodos de tu archivo `main.dart`. @@ -161,7 +161,7 @@ Puedes inicializar RUM utilizando uno de dos métodos de tu archivo `main.dart`. }) ``` -2. Como alternativa, configura manualmente [Rastreo de errores][4] y el rastreo de recursos. `DatadogSdk.runApp` llama a `WidgetsFlutterBinding.ensureInitialized`, por lo que si no utilizas `DatadogSdk.runApp`, deberá llamar a este método antes de llamar a `DatadogSdk.instance.initialize`. +2. Como alternativa, configura manualmente [Rastreo de errores][4] y el rastreo de recursos. `DatadogSdk.runApp` llama a `WidgetsFlutterBinding.ensureInitialized`, por lo que si no utilizas `DatadogSdk.runApp`, deberás llamar a este método antes de llamar a `DatadogSdk.instance.initialize`. ```dart WidgetsFlutterBinding.ensureInitialized(); @@ -183,15 +183,15 @@ Puedes inicializar RUM utilizando uno de dos métodos de tu archivo `main.dart`. runApp(const MyApp()); ``` -### Muestrear sesiones de RUM +### Muestreo de sesiones de RUM -Para controlar los datos que tu aplicación envía a Datadog RUM, puedes especificar una frecuencia de muestreo para las sesiones RUM mientras inicializas el SDK de Flutter RUM como un porcentaje entre 0 y 100. De forma predeterminada, `sessionSamplingRate` se configura en 100 (mantener todas las sesiones). +Para controlar los datos que tu aplicación envía a Datadog RUM, puedes especificar una frecuencia de muestreo para las sesiones de RUM, mientras inicializas el SDK de Flutter RUM como un porcentaje entre 0 y 100. De forma predeterminada, `sessionSamplingRate` se configura en 100 (conservar todas las sesiones). -Por ejemplo, para conservar solo el 50% de las sesiones, utiliza: +Por ejemplo, para conservar solo el 50 % de las sesiones, utiliza: ```dart -final config = DatadogConfiguration( - // other configuration... +configuración final = DatadogConfiguration( + // otra configuración... rumConfiguration: DatadogRumConfiguration( applicationId: '<YOUR_APPLICATION_ID>', sessionSamplingRate: 50.0, @@ -201,13 +201,13 @@ final config = DatadogConfiguration( ### Configurar el consentimiento del rastreo -Para cumplir con la normativa GDPR, el SDK de Datadog Flutter requiere el valor `trackingConsent` en la inicialización. +Para cumplir con la normativa del Reglamento general de protección de datos (RGPD), el SDK de Datadog Flutter requiere el valor `trackingConsent` en la inicialización. Configura `trackingConsent` en uno de los siguientes valores: - `TrackingConsent.pending`: El SDK de Datadog Flutter comienza a recopilar y procesar los datos por lotes, pero no los envía a Datadog. Espera al nuevo valor de consentimiento de rastreo para decidir qué hacer con los datos procesados por lotes. - `TrackingConsent.granted`: El SDK de Datadog Flutter comienza a recopilar los datos y los envía a Datadog. -- `TrackingConsent.notGranted`: El SDK de Flutter Datadog no recopila ningún dato, lo que significa que no se envía ningún log, traza (trace) ni <txprotected>eventos</txprotected> de RUM a Datadog. +- `TrackingConsent.notGranted`: El SDK de Flutter Datadog no recopila ningún dato, lo que significa que no se envía ningún log, traza (trace) ni evento de RUM a Datadog. Para cambiar el valor del consentimiento del rastreo después de la inicialización del SDK, utiliza la llamada a la API `DatadogSdk.setTrackingConsent`. @@ -224,7 +224,7 @@ El complemento de Datadog Flutter puede rastrear automáticamente rutas con nomb ```dart MaterialApp( - home: HomeScreen(), + inicio: HomeScreen(), navigatorObservers: [ DatadogNavigationObserver(DatadogSdk.instance), ], @@ -299,12 +299,12 @@ Para activar [Rastreo distribuido][6] de Datadog, configura la propiedad `Datado - `firstPartyHosts` no permite comodines, pero coincide con cualquier subdominio de un dominio determinado. Por ejemplo, `api.example.com` coincide con `staging.api.example.com` y `prod.api.example.com`, no con `news.example.com`. -- `DatadogRumConfiguration.traceSampleRate` configura una tasa de muestreo por defecto del 20%. Si deseas que todas las solicitudes de recursos generen una traza distribuida completa, configura este valor en `100.0`. +- `DatadogRumConfiguration.traceSampleRate` configura una tasa de muestreo por defecto del 20 %. Si deseas que todas las solicitudes de recursos generen una traza distribuida completa, configura este valor en `100.0`. ## Rastreo automático de las acciones -Utiliza [`RumUserActionDetector`][13] para rastrear las pulsaciones del usuario que se producen en un determinado árbol de widget: +Utiliza [`RumUserActionDetector`][13] para rastrear las pulsaciones del usuario que se producen en un determinado árbol de widgets: ``dart RumUserActionDetector( @@ -318,11 +318,11 @@ RumUserActionDetector( ); ``` -`RumUserActionDetector` detecta automáticamente las acciones pulsadas del usuario que se producen en su árbol y las envía a RUM. Detecta interacciones con varios <txprotected>widgets</txprotected> frecuentes de Flutter. +`RumUserActionDetector` detecta automáticamente las acciones pulsadas del usuario que se producen en su árbol y las envía a RUM. Detecta interacciones con varios widgets frecuentes de Flutter. Para la mayoría de los tipos de botones, el detector busca un widget `Text` secundario, que utiliza para la descripción de la acción. En otros casos, busca un objeto `Semantics` secundario o un `Icon` con su propiedad `Icon.semanticsLabel` configurada. -Alternativamente, puede encerrar cualquier árbol de widgets con una [`RumUserActionAnnotation`][14], que utiliza la descripción proporcionada al informar de las acciones del usuario detectadas en el árbol secundario, sin cambiar la semántica del árbol. +Alternativamente, puedes encerrar cualquier árbol de widgets con una [`RumUserActionAnnotation`][14], que utiliza la descripción proporcionada al informar de las acciones del usuario detectadas en el árbol secundario, sin cambiar la semántica del árbol. ```dart Contenedor( @@ -350,6 +350,15 @@ Contenedor( ); ``` +## Envío de datos cuando el dispositivo está desconectado + +RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En los casos de zonas con baja conexión de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local por lotes. Se envían en cuanto red está disponible y la carga de la batería es lo suficientemente alta como para garantizar que el SDK de RUM de Flutter no afecte a la experiencia del usuario final. Si la red no está disponible cuando la aplicación se ejecuta en primer plano o si falla una carga de datos, el lote se guarda hasta que pueda enviarse correctamente. + +Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. + +**Nota**: Los datos del disco se eliminan automáticamente si se vuelven demasiado antiguos para garantizar que el SDK de Flutter RUM no utilice demasiado espacio del disco. + + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/ios.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/ios.md index 5fe0ed07d5b52..2e1ed96a8d8e8 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/ios.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/ios.md @@ -461,6 +461,15 @@ RUM.enable( [iOS Crash Reporting and Error Tracking][17] muestra cualquier problema en tu aplicación y los últimos errores disponibles. Puedes ver los detalles y atributos de los errores, incluido JSON, en el [RUM Explorer][18]. +## Envío de datos cuando el dispositivo está desconectado + +RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En casos de zonas con baja conexión de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local en lotes. Se envían tan pronto como la red esté disponible y la carga de la batería sea lo suficientemente alta como para garantizar que el SDK de RUM para iOS no afecte a la experiencia del usuario final. Si la red no está disponible mientras tu aplicación está en primer plano o si falla una carga de datos, el lote se conserva hasta que se lo pueda enviar con éxito. + +Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. + +**Nota**: Los datos en el disco se descartan automáticamente si se hacen demasiado viejos para garantizar que el SDK de RUM para iOS no utilice demasiado espacio del disco. + + ## Versiones compatibles Consulta [Versiones compatibles][19] para ver una lista versiones de sistemas operativos y plataformas que son compatibles con el SDK de RUM iOS. diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/reactnative.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/reactnative.md index 85eae312a2231..383f6956b76c0 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/reactnative.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/setup/reactnative.md @@ -361,6 +361,15 @@ Utiliza una de las integraciones de Datadog para realizar un rastreo automático Si tienes algún problema para configurar el rastreo de vistas con `@datadog/mobile-react-navigation`, puedes consultar este [ejemplo de aplicación][16] de Datadog como referencia. +## Envío de datos cuando el dispositivo está desconectado + +RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En casos de zonas con baja conexión de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local en lotes. Se envían tan pronto como la red esté disponible y la carga de la batería sea lo suficientemente alta como para asegurar que el SDK de React Native de RUM no afecte a la experiencia del usuario final. Si la red no está disponible cuando tu aplicación está ejecutándose en primer plano o si falla una carga de datos, el lote se conserva hasta que pueda enviarse correctamente. + +Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. + +**Nota**: Los datos del disco se eliminan automáticamente si se vuelven demasiado antiguos para garantizar que el SDK de React Native de RUM no utilice demasiado espacio del disco. + + ## Rastrear eventos en segundo plano <div class="alert alert-info"><p>El rastreo de eventos en segundo plano puede dar lugar a sesiones adicionales, lo que puede afectar a la facturación. Si tienes dudas, <a href="https://docs.datadoghq.com/help/">contacta con el equipo de soporte de Datadog.</a></p> diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/android.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/android.md index 2a49c767b9787..d7153c8da75ad 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/android.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/android.md @@ -39,31 +39,23 @@ Para cumplir con la normativa del Reglamento general de protección de datos (RG El consentimiento de rastreo puede ser uno de los siguientes valores: - `TrackingConsent.PENDING`: (Predeterminado) El SDK comienza a recopilar los datos y a procesarlos por lotes, pero no los envía al - punto de conexión de recopilación. El SDK espera el nuevo valor del consentimiento de rastreo para decidir qué hacer con los datos procesados por lotes. -- `TrackingConsent.GRANTED`: el SDK comienza a recopilar los datos y los envía al punto de conexión de recopilación de datos. + endpoint de recopilación. El SDK espera el nuevo valor del consentimiento de rastreo para decidir qué hacer con los datos procesados por lotes. +- `TrackingConsent.GRANTED`: el SDK comienza a recopilar los datos y los envía al endpoint de recopilación de datos. - `TrackingConsent.NOT_GRANTED`: El SDK no recopila ningún dato. No puedes enviar manualmente ningún log, traza ni evento de RUM. Para actualizar el consentimiento de rastreo después de inicializar el SDK, llama a `Datadog.setTrackingConsent(<NEW CONSENT>)`. El SDK cambia de comportamiento de acuerdo con el nuevo consentimiento. Por ejemplo, si el consentimiento de rastreo actual es `TrackingConsent.PENDING` y lo actualizas a: -- `TrackingConsent.GRANTED`: el SDK envía todos los datos actuales procesados por lotes y los datos futuros directamente al punto de conexión de recopilación de datos. +- `TrackingConsent.GRANTED`: el SDK envía todos los datos actuales procesados por lotes y los datos futuros directamente al endpoint de recopilación de datos. - `TrackingConsent.NOT_GRANTED`: el SDK borra todos los datos procesados por lotes y no recopila datos futuros. -## Envío de datos cuando el dispositivo está desconectado - -RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En caso de zonas con baja conexión de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local en lotes. - -Cada lote sigue la especificación de entrada. Se envían tan pronto como la red está disponible y la batería está lo suficientemente cargada como para garantizar que el SDK de Datadog no afecte la experiencia del usuario final. Si la red no está disponible mientras tu aplicación está en primer plano o si falla una carga de datos, el lote se conserva hasta que se lo pueda enviar con éxito. - -Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. Para garantizar que el SDK no utilice demasiado espacio de disco, los datos del disco se descartan automáticamente si son demasiado antiguos. - ## Migración a la versión 2.0.0 Si has estado utilizando el SDK v1, se introdujeron algunos cambios de última hora en la versión `2.0.0`. Consulta la [guía para la migración][2] para obtener más información. ## Referencias adicionales -{{< nombre parcial="whats-next/whats-next.html" >}} +{{< partial name="whats-next/whats-next.html" >}} [1]: /es/help [2]: https://github.com/DataDog/dd-sdk-android/blob/develop/MIGRATION.MD \ No newline at end of file diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/ios.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/ios.md index e5d9b6ba9ba76..35d4b4f85e858 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/ios.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/ios.md @@ -84,14 +84,6 @@ clase privada YourCustomDelegateURLSessionDelegate: NSObject, URLSessionTaskDele * implementar `URLSessionDataDelegate` y reenviar: * [`urlSession(_:dataTask:didReceive:)`][6] -## Envío de datos cuando el dispositivo está desconectado - -RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En casos de zonas con baja conexión de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local en lotes. Se envían tan pronto como la red esté disponible y la carga de la batería sea lo suficientemente alta como para garantizar que el SDK de RUM para iOS no afecte a la experiencia del usuario final. Si la red no está disponible mientras tu aplicación está en primer plano o si falla una carga de datos, el lote se conserva hasta que se lo pueda enviar con éxito. - -Esto significa que incluso si los usuarios abren tu aplicación mientras está desconectada, no se pierde ningún dato. - -**Nota**: Los datos en el disco se descartan automáticamente si se hacen demasiado viejos para garantizar que el SDK de RUM para iOS no utilice demasiado espacio del disco. - ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/reactnative.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/reactnative.md index e6924dc00b26e..57768b6166469 100644 --- a/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/reactnative.md +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/troubleshooting/reactnative.md @@ -1,8 +1,7 @@ --- code_lang: reactnative code_lang_weight: 50 -description: Aprenda a solucionar problemas con la <txprotected>monitorización</txprotected> - de React Native. +description: Aprenda a solucionar problemas con la monitorización de React Native. further_reading: - link: https://github.com/DataDog/dd-sdk-reactnative tag: Código fuente @@ -20,9 +19,9 @@ Si experimentas un comportamiento inesperado con Datadog React Native RUM, utili ## No se envían datos a Datadog -Sigue estas instrucciones en orden cuando se haya instalado el SDK y la aplicación compile, pero Datadog no reciba ningún dato. +Sigue estas instrucciones en orden cuando se haya instalado el SDK y la compilación de la aplicación, pero Datadog no reciba ningún dato. -### Haz un check de la configuración +### Check la configuración A veces, no se envía ningún dato debido a un pequeño error en la configuración. @@ -33,7 +32,7 @@ Estas son algunas de las cosas más frecuentes para hacer un check: - Si has configurado un `Proxy` en la configuración de Datadog, check que se haya configurado correctamente. - Check que estés **rastreando vistas** (todos los eventos deben estar adjuntos a una vista) y **enviando eventos**. -### Revisar logs de SDK en React Native +### Revisar los logs de SDK en React Native - Configura `config.verbosity = SdkVerbosity.DEBUG`, que importa `SdkVerbosity` desde `@datadog/mobile-react-native`. - Los logs comienzan a aparecer en la consola de JavaScript, como la siguiente salida: @@ -67,14 +66,14 @@ Si utilizas `DdSdkReactNative.initialize` para iniciar el SDK de Datadog, llama A partir de la versión del SDK `1.2.0`, puedes inicializar el SDK utilizando el componente `DatadogProvider`. Este componente incluye un buffer de eventos de RUM que se asegura de que el SDK se inicialice antes de enviar cualquier dato a Datadog, lo que evita que se produzca este problema. -Para utilizarlo, consulta la [Guía de migración al proveedor de Datadog][1]. +Para utilizarlo, consulta la [Guía para la migración al proveedor de Datadog][1]. [1]: https://github.com/DataDog/dd-sdk-reactnative/blob/develop/docs/migrating_to_datadog_provider.md {{% /pestaña %}} {{< /pestañas >}} -### Revisión de logs nativos +### Revisión de los logs nativos Revisar los logs nativos puede darte más información sobre lo que podría estar fallando. @@ -86,7 +85,7 @@ Revisar los logs nativos puede darte más información sobre lo que podría esta {{< img src="real_user_monitoring/react_native/troubleshooting-xcode-logs.png" alt="Revisar los logs nativos puede ayudarte a averiguar por qué no se está enviando ningún dato" >}} -Puedes filtrar Logs por "DATADOG" y buscar cualquier error. +Puedes filtrar los logs por "DATADOG" y buscar cualquier error. Si efectivamente estás enviando eventos, deberías ver los siguientes logs: @@ -117,7 +116,7 @@ Si utilizas `DdSdkReactNative.initialize` para iniciar el SDK de Datadog, llama A partir de la versión del SDK `1.2.0`, puedes inicializar el SDK utilizando el componente `DatadogProvider`. Este componente incluye un buffer de eventos de RUM que se asegura de que el SDK se inicialice antes de enviar cualquier dato a Datadog, lo que evita que se produzca este problema. -Para utilizarlo, consulta la [Guía de migración al proveedor de Datadog ][1]. +Para utilizarlo, consulta la [Guía para la migración al proveedor de Datadog ][1]. [1]: https://github.com/DataDog/dd-sdk-reactnative/blob/develop/docs/migrating_to_datadog_provider.md @@ -158,7 +157,7 @@ En este ejemplo, el último log indica que el lote de datos de RUM se ha enviado Si aparece el siguiente mensaje de error ``` -Símbolos indefinidos para la arquitectura x86_64: +Símbolos no definidos para la arquitectura x86_64: "static Foundation.JSONEncoder.OutputFormatting.withoutEscapingSlashes.getter : Foundation.JSONEncoder.OutputFormatting", referenciado desde: static (extensión en Datadog):Foundation.JSONEncoder.default() -> Foundation.JSONEncoder en libDatadogSDK.a(JSONEncoder.o) ... @@ -206,7 +205,7 @@ Fallo en la ejecución de la tarea ':app:processReleaseMainManifest'. > No es posible que Java.lang.String Java.io.File.path final privado de campo sea accesible: el módulo Java.base no "abre Java.io" al módulo sin nombre @1bbf7f0e ``` -Estás utilizando Java 17, que no es compatible con tu versión de React Native. Cambia a Java 11 para resolver el problema. +Estás utilizando Java 17, que no es compatible con tu versión de React Native. Cambia a Java 11 para solucionar el problema. ### java.lang.UnsupportedClassVersionError @@ -279,18 +278,9 @@ dependencias { } ``` -## Envío de datos cuando el dispositivo está desconectado - -RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En casos de zonas con bajas conexiones de red o cuando la carga de la batería del dispositivo es demasiado baja, todos los eventos de RUM se almacenan primero en el dispositivo local en lotes. Se envían tan pronto como la red esté disponible y la carga de la batería sea lo suficientemente alta como para asegurar que el SDK de React Native de RUM no afecte a la experiencia del usuario final. Si la red no está disponible cuando tu aplicación está ejecutándose en primer plano o si falla una carga de datos, el lote se conserva hasta que pueda enviarse correctamente. - -Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. - -**Nota**: Los datos del disco se eliminan automáticamente si se vuelven demasiado antiguos para garantizar que el SDK de React Native de RUM no utilice demasiado espacio del disco. - ## Referencias adicionales -{{< nombre parcial="whats-next/whats-next.html" >}} - +{{< partial name="whats-next/whats-next.html" >}} [1]: /es/help [2]: https://github.com/JakeWharton/pidcat diff --git a/content/es/security/application_security/how-appsec-works.md b/content/es/security/application_security/how-appsec-works.md index 7a4c7c33e515a..43f697f797ed6 100644 --- a/content/es/security/application_security/how-appsec-works.md +++ b/content/es/security/application_security/how-appsec-works.md @@ -39,13 +39,17 @@ Las funciones de monitorización y detección de amenazas de Datadog identifican <div class="alert alert-info"><strong>Habilitación con 1 clic</strong><br> Si tu servicio se está ejecutando en <a href="/agent/remote_config/#enabling-remote-configuration">un Agent con configuración remota habilitada y una versión de biblioteca de rastreo compatible</a>, puedes <a href="https://app.datadoghq.com/security/configuration/asm/setup">habilitar Application Security</a> desde la interfaz de usuario Datadog sin ninguna configuración adicional del Agent o de las bibliotecas de rastreo.</div> -### Identificar las bibliotecas de servicios vulnerables +### Identificar vulnerabilidades en las bibliotecas de código abierto utilizadas por servicios El [Análisis de la composición del software][5] de Datadog utiliza varias fuentes de datos de vulnerabilidades conocidas relacionadas con bibliotecas de software de código abierto, además de información proporcionada por el equipo de investigación de seguridad de Datadog, para emparejar las bibliotecas de las que depende tu aplicación en tiempo de ejecución con tus vulnerabilidades potenciales, y recomendar correcciones. +### Identificar vulnerabilidades a nivel de código en servicios + +Datadog [Code Security][28] identifica las vulnerabilidades a nivel de código en servicios y proporciona información práctica y correcciones recomendadas. Utiliza un enfoque de Tests interactivos de seguridad de aplicaciones (IAST) para encontrar vulnerabilidades en el código de las aplicaciones. IAST utiliza la instrumentación incrustada en el código, de forma similar a Application Performance Monitoring (APM), lo que permite a Datadog identificar vulnerabilidades utilizando el tráfico legítimo de la aplicación en lugar de depender de tests externos que pueden requerir configuración adicional o una programación periódica. Datadog Code Security proporciona automáticamente la información que los equipos necesitan para localizar una vulnerabilidad en una aplicación, desde el nombre del archivo afectado hasta el método y el número de línea exactos. + ## Compatibilidad -Para que Datadog Application Security sea compatible con tu configuración de Datadog, debes tener APM habilitado y [enviando trazas a Datadog][6]. Application Security utiliza las mismas bibliotecas que APM, por lo que no necesitas desplegar o mantener otra biblioteca. +Para que Datadog Application Security sea compatible con tu configuración de Datadog, debes tener APM habilitado y [enviando trazas (traces) a Datadog][6]. Application Security utiliza las mismas bibliotecas que APM, por lo que no necesitas desplegar ni mantener otra biblioteca. Los pasos para habilitar Datadog Application Security son específicos de cada lenguaje de tiempo de ejecución. Consulta si tu lenguaje es compatible con los requisitos previos de Application Security de cada producto. @@ -53,7 +57,7 @@ Los pasos para habilitar Datadog Application Security son específicos de cada l Datadog Application Security para AWS Lambda proporciona una amplia visibilidad de los atacantes que tienen como objetivo tus funciones. Gracias al rastreo distribuido, que te proporciona una descripción del ataque rica en contexto, puedes evaluar el impacto y corregir la amenaza de forma eficaz. -Consulta [Habilitar Application Security para serverless][8] para obtener más información sobre cómo configurarlo. +Consulta [Habilitar Application Security para Serverless][8] para obtener más información sobre cómo configurarlo. ## Rendimiento @@ -71,9 +75,9 @@ Los datos de las trazas de seguridad se conservan durante 90 días. Los datos de ## Privacidad de los datos -De forma predeterminada, Application Security recopila información de las trazas de seguridad para ayudarte a entender por qué la solicitud se ha marcado como sospechosa. Antes de enviar los datos, Application Security los analiza en busca de patrones y palabras clave que indiquen que los datos son confidenciales. Si los datos se consideran confidenciales, se sustituyen por una marca `<redacted>`. Esto indica que la solicitud era sospechosa, pero que los datos de la solicitud no pudieron ser recopilados por motivos de seguridad de los datos. +De forma predeterminada, Application Security recopila información de las trazas de seguridad para ayudarte a comprender por qué la solicitud se ha marcado como sospechosa. Antes de enviar los datos, Application Security los analiza en busca de patrones y palabras clave que indiquen que los datos son confidenciales. Si los datos se consideran confidenciales, se sustituyen por una marca `<redacted>`. Esto indica que la solicitud era sospechosa, pero que los datos de la solicitud no pudieron ser recopilados por motivos de seguridad de los datos. -Los siguientes son algunos ejemplos de datos que se marcan como confidenciales por defecto: +Los siguientes son algunos ejemplos de datos que se marcan como confidenciales de forma predeterminada: * `pwd`, `password`, `ipassword`, `pass_phrase` * `secret` * `key`, `api_key`, `private_key`, `public_key` @@ -102,40 +106,40 @@ Las señales de seguridad se crean automáticamente cuando Datadog detecta ataqu ## Clasificación del intento de ataque -Utilizando la información del rastreo distribuido, los intentos de ataque se clasifican como seguros, desconocidos o dañinos. -* Los intentos de ataque clasificados como seguros no pueden vulnerar tu aplicación, por ejemplo, cuando un ataque de inyección PHP apunta a un servicio escrito en Java. +Mediante la utilización de la información del rastreo distribuido, los intentos de ataque se clasifican como seguros, desconocidos o dañinos. +* Los intentos de ataque clasificados como seguros no pueden vulnerar tu aplicación, por ejemplo, cuando un ataque de inserción PHP apunta a un servicio escrito en Java. * La clasificación de desconocido se asigna cuando no hay suficiente información para emitir un juicio definitivo sobre la probabilidad de éxito del ataque. -* Se muestra una clasificación dañina cuando hay pruebas de que el atacante ha encontrado alguna vulnerabilidad a nivel del código. +* Se muestra una clasificación de dañino cuando hay pruebas de que el atacante ha encontrado alguna vulnerabilidad a nivel del código. ## Cobertura de la monitorización de amenazas -Datadog Application Security incluye más de 100 firmas de ataque que te ayudan a protegerte contra [muchos tipos diferentes de ataques][14], incluyendo, pero sin limitarse, las siguientes categorías: +Datadog Application Security incluye más de 100 firmas de ataque que te ayudan a protegerte contra [muchos tipos diferentes de ataques][14], incluidas, entre otras, las siguientes categorías: * Inyecciones SQL * Inyecciones de código * Inyecciones de shell * Inyecciones NoSQL -* Cross-Site Scripting (XSS) reflejado +* Cross-Site Scripting (XSS) * Falsificación de solicitudes del lado del servidor (SSRF) ## Detección de vulnerabilidades integrada -Datadog Application Security ofrece capacidades de detección incorporadas que te avisan de las vulnerabilidades detectadas en tus dependencias de código abierto. Los detalles de esa información se muestran en el [Explorador de vulnerabilidades][15] e identifican la gravedad, los servicios afectados, la infraestructura potencialmente vulnerable y las instrucciones para solucionar los riesgos detectados. +Datadog Application Security ofrece funciones de detección integradas que te avisan de las vulnerabilidades detectadas en el código de tu aplicación y en las dependencias de código abierto. Los detalles de esa información se muestran en el [Explorador de vulnerabilidades][15], identificando la gravedad, los servicios afectados, la infraestructura potencialmente vulnerable y las instrucciones de corrección para solucionar los riesgos surgidos. -Para obtener más información, consulta [Análisis de la composición del software][5]. +Para más información, consulta [Seguridad del código][28] y [Análisis de la composición del software][5]. ## Seguridad de la API <div class="alert alert-info">La seguridad de la API está en fase beta privada.</div> -Datadog Application Security proporciona visibilidad de las amenazas dirigidas a tus API. Utiliza el [Catálogo de API][27] para monitorizar la salud y las métricas de rendimiento de las API, donde puedes ver los ataques dirigidos a tus API. Esta vista incluye la IP del atacante y la información de autenticación, así como las cabeceras de solicitud que muestran detalles sobre cómo se ha formado el ataque. Utilizando Application Security y la gestión de las API, puedes tener una visión completa de la superficie de ataque a tu API y responder para mitigar las amenazas. +Datadog Application Security proporciona visibilidad de las amenazas dirigidas a tus API. Utiliza el [Catálogo de API][27] para monitorizar el mantenimiento y las métricas de rendimiento de las API, donde puedes ver los ataques dirigidos a tus API. Esta vista incluye la IP y la información de autenticación del atacante, así como los encabezados de la solicitud que muestran detalles sobre cómo se formó el ataque. Utilizando Application Security y la gestión de las API, puedes tener una visión completa de la superficie de ataque a tu API y responder para mitigar las amenazas. -## Cómo Datadog Application Security protege contra Log4Shell +## Cómo protege Datadog Application Security contra Log4Shell -Datadog Application Security identifica las cargas útiles de ataque Log4j Log4Shell y proporciona una visibilidad de las aplicaciones vulnerables que intentan cargar código malicioso de forma remota. Cuando se combina con el resto de [Cloud SIEM][16] de Datadog, puedes investigar la actividad habitual posterior a la explotación y corregir los servicios web Java potencialmente vulnerables que actúan como vectores de ataque. +Datadog Application Security identifica las cargas útiles de ataque Log4j Log4Shell y proporciona una visibilidad de las aplicaciones vulnerables que intentan cargar un código malicioso de forma remota. Cuando se combina con el resto de [Cloud SIEM de Datadog][16], puedes investigar para identificar la actividad frecuente posterior a la explotación y corregir en forma proactiva los servicios web Java potencialmente vulnerables que actúan como vectores del ataque. ## Referencias adicionales @@ -159,4 +163,5 @@ Datadog Application Security identifica las cargas útiles de ataque Log4j Log4S [17]: /es/security/application_security/threats/library_configuration/#data-security-considerations [25]: /es/security/application_security/threats/add-user-info#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces [26]: /es/agent/remote_config/#enabling-remote-configuration -[27]: /es/tracing/api_catalog/ \ No newline at end of file +[27]: /es/tracing/api_catalog/ +[28]: /es/security/application_security/code_security/ \ No newline at end of file diff --git a/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md b/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md index 6daceda65aa1a..cae37de55a8ac 100644 --- a/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md +++ b/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md @@ -47,15 +47,6 @@ ERROR | (pkg/workloadmeta/collectors/internal/containerd/image_sbom_trivy.go:80 La solución para este problema es establecer la opción de configuración `discard_unpacked_layers=false` en el archivo de configuración de contenedor. -## Ver métricas relacionadas - -1. Ve a **[Metrics > Summary][4]** (Métricas > Resumen) en Datadog. -2. Buscar las siguientes métricas para ayudar a solucionar problemas: - - `datadog.agent.sbom_attempts`: rastrea los intentos de recopilación de sbom por `source` y `type`. - - `datadog.agent.sbom_generation_duration`: mide el tiempo que se tarda en generar SBOMs en segundos. - - `datadog.agent.sbom_errors`: número de fallos sbom por `source`, `type` y `reason`. - - `datadog.agent.export_size`: el tamaño del archivo escrito en disco. - ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/serverless/step_functions/enhanced-metrics.md b/content/es/serverless/step_functions/enhanced-metrics.md index ba7f2bcb0d44b..2b48759568512 100644 --- a/content/es/serverless/step_functions/enhanced-metrics.md +++ b/content/es/serverless/step_functions/enhanced-metrics.md @@ -30,9 +30,6 @@ Están disponibles las siguientes métricas mejoradas de Step Functions. `aws.states.enhanced.task.execution.task_duration` : Distribución de las duraciones de las tareas individuales. -`aws.states.enhanced.task.execution.tasks_timed_out` -: Counts el número total de tareas que han agotado el tiempo de espera. - `aws.states.enhanced.state.run_duration` : gauge para las duraciones de las ejecuciones de un estado. diff --git a/content/es/tracing/metrics/runtime_metrics/dotnet.md b/content/es/tracing/metrics/runtime_metrics/dotnet.md new file mode 100644 index 0000000000000..4ff1e1f82a676 --- /dev/null +++ b/content/es/tracing/metrics/runtime_metrics/dotnet.md @@ -0,0 +1,79 @@ +--- +aliases: +- /es/tracing/runtime_metrics/dotnet +code_lang: dotnet +code_lang_weight: 50 +description: Obtén información adicional sobre el rendimiento de tu aplicación .NET + con las métricas de tiempo de ejecución asociadas a tus trazas (traces). +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: Documentación + text: Conecta tus logs y trazas +- link: tracing/trace_collection/custom_instrumentation + tag: Documentación + text: Instrumenta tu aplicación de forma manual para crear trazas. +- link: tracing/glossary/ + tag: Documentación + text: Explora tus servicios, recursos y trazas +- link: https://www.datadoghq.com/blog/dotnet-runtime-metrics/ + tag: Blog + text: Monitorizar métricas de tiempo de ejecución de .NET con Datadog +title: Métricas de tiempo de ejecución de .NET +type: multi-code-lang +--- + +## Compatibilidad de las métricas de tiempo de ejecución + +- .NET Framework 4.6.1 o posterior +- .NET Core 3.1 +- .NET 5 +- .NET 6 +- .NET 7 +- .NET 8 + +## Configuración automática + +Habilita la recopilación de métricas de tiempo de ejecución en .NET Tracer 1.23.0+ con la variable de entorno `DD_RUNTIME_METRICS_ENABLED=true`. + +Ve las métricas de tiempo de ejecución en correlación con tus servicios de .NET. Consulta el [Catálogo de servicios][1] en Datadog. + +Por defecto, las métricas de tiempo de ejecución de tu aplicación se envían al Datadog Agent con DogStatsD por el puerto `8125`. Asegúrate de que [DogStatsD está habilitado para el Agent][2]. + +Si estás ejecutando el Agent como un contenedor, asegúrate de que `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` [se establece en true][3] y que el puerto `8125` está abierto en el Agent. Además, para: + +- **Kubernetes**: _debes_ [vincular el puerto DogStatsD a un puerto host][4]. +- **ECS**: [Establece los indicadores apropiados en la definición de tu tarea][5]. + +Alternativamente, el Agent puede ingerir métricas con un Unix Domain Socket (UDS) como alternativa al transporte UDP. Para más información, lee [DogStatsD en Unix Domain Socket][7]. + +## Datos recopilados + +Las siguientes métricas se recopilan por defecto después de activar las metricas de .NET. + +{{< get-metrics-from-git "dotnet" >}} + +Además de mostrar estas métricas en tu Página de servicios de APM, Datadog proporciona un [dashboard de tiempo de ejecución de .NET predeterminado][6]. + +## Permisos adicionales para IIS + +En .NET Framework, las métricas se recopilan mediante contadores de rendimiento. Los usuarios en sesiones de inicio de sesión no interactivas (que incluyen cuentas de grupos de aplicaciones IIS y algunas cuentas de servicio) deben añadirse al grupo **Usuarios de monitorización de rendimiento** para acceder a los datos del contador. + +Los grupos de aplicaciones IIS utilizan cuentas especiales que no aparecen en lista de usuarios. Para añadirlas al grupo de usuarios de monitorización de rendimiento, busca `IIS APPPOOL\<name of the pool>`. Por ejemplo, el usuario para el DefaultAppPool sería `IIS APPPOOL\DefaultAppPool`. + +Puedes hacer esto desde la interfaz de usuario "Gestión de ordenadores" o desde una acción de comando del administrador: + +``` +net localgroup "Performance Monitor Users" "IIS APPPOOL\DefaultAppPool" /add +``` + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services +[2]: /es/developers/dogstatsd/#setup +[3]: /es/agent/docker/#dogstatsd-custom-metrics +[4]: /es/developers/dogstatsd/?tab=kubernetes#agent +[5]: /es/agent/amazon_ecs/#create-an-ecs-task +[6]: https://app.datadoghq.com/dash/integration/30412/net-runtime-metrics +[7]: /es/developers/dogstatsd/unix_socket/ \ No newline at end of file diff --git a/content/es/tracing/metrics/runtime_metrics/java.md b/content/es/tracing/metrics/runtime_metrics/java.md new file mode 100644 index 0000000000000..61b14e3961335 --- /dev/null +++ b/content/es/tracing/metrics/runtime_metrics/java.md @@ -0,0 +1,67 @@ +--- +aliases: +- /es/tracing/runtime_metrics/java +code_lang: java +code_lang_weight: 10 +description: Obtén información adicional sobre el rendimiento de tu aplicación Java + con las métricas de tiempo de ejecución asociadas a tus trazas (traces). +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: Documentación + text: Conecta tus logs y trazas +- link: tracing/trace_collection/custom_instrumentation + tag: Documentación + text: Instrumenta tu aplicación de forma manual para crear trazas. +- link: tracing/glossary/ + tag: Documentación + text: Explora tus servicios, recursos y trazas +title: Métricas de tiempo de ejecución de Java +type: multi-code-lang +--- + +## Configuración automática + +La recopilación de métricas de JVM está habilitada por defecto para Java Tracer v0.29.0+. Puedes deshabilitarla con un parámetro de configuración en el cliente de rastreo, ya sea mediante una propiedad del sistema, `-Ddd.jmxfetch.enabled=false`, or through an environment variable, `DD_JMXFETCH_ENABLED=false. `. As of v0.64.0+, you can also use the `variable de entorno DD_RUNTIME_METRICS_ENABLED=false` para deshabilitarla. + +Las métricas de tiempo de ejecución de JVM se pueden ver en correlación con tus servicios de Java. Consulta el [Catálogo de servicios][1] en Datadog. + +{{< img src="tracing/runtime_metrics/jvm-runtime.png" alt="Tiempo de ejecución de JVM" >}} + +Por defecto, las métricas de tiempo de ejecución de tu aplicación se envían al Datadog Agent con DogStatsD por el puerto `8125`. Asegúrate de que [DogStatsD está habilitado para el Agent][2]. + +Si estás ejecutando el Agent como un contenedor, asegúrate de que `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` [se establece en true][3] y que el puerto `8125` está abierto en el Agent. Además, para: + +- **Kubernetes**: _debes_ [vincular el puerto DogStatsD a un puerto host][4]. +- **ECS**: [Establece los indicadores apropiados en la definición de tu tarea][5]. + +Alternativamente, el Agent puede ingerir métricas con un Unix Domain Socket (UDS) como alternativa al transporte UDP. Para más información, lee [DogStatsD en Unix Domain Socket][9]. + +**Notas**: + +- Para la interfaz de usuario de tiempo de ejecución, se admite `dd-trace-java` >= [`0.24.0`][6]. +- Para asociar métricas de JVM dentro de las gráficas de llamas, asegúrate de que `env: tag` (distingue entre mayúsculas y minúsculas) está configurada y coincide en tu entorno. +- Para que las métricas de JVM aparezcan en la Página de servicios cuando usas Fargate, asegúrate de que `DD_DOGSTATSD_TAGS` está configurado en tu tarea del Agent, y coincide con la `env: tag` de ese servicio. + +## Datos recopilados + +Las siguientes métricas se recopilan por defecto por proceso de JVM después de activar las métricas de JVM. + +{{< get-metrics-from-git "java" >}} + +Además de mostrar estas métricas en tu Página de servicios de APM, Datadog proporciona un [dashboard de tiempo de ejecución de JVM predeterminado][7]. + +Se pueden añadir métricas de JVM adicionales mediante archivos de configuración que se pasan utilizando `dd.jmxfetch.config.dir` y `dd.jmxfetch.config`. También puedes activar integraciones de JMX y Datadog existentes de forma individual con el parámetro `dd.jmxfetch.<INTEGRATION_NAME>.enabled=true`. Esto introduce automáticamente la configuración de los archivos de configuración de JMX existentes de Datadog. Consulta [integración de JMX][8] para obtener más información sobre la configuración. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services +[2]: /es/developers/dogstatsd/#setup +[3]: /es/agent/docker/#dogstatsd-custom-metrics +[4]: /es/developers/dogstatsd/?tab=kubernetes#agent +[5]: /es/agent/amazon_ecs/#create-an-ecs-task +[6]: https://github.com/DataDog/dd-trace-java/releases/tag/v0.24.0 +[7]: https://app.datadoghq.com/dash/integration/256/jvm-runtime-metrics +[8]: /es/integrations/java/#configuration +[9]: /es/developers/dogstatsd/unix_socket/ \ No newline at end of file diff --git a/content/es/tracing/metrics/runtime_metrics/nodejs.md b/content/es/tracing/metrics/runtime_metrics/nodejs.md new file mode 100644 index 0000000000000..0bf20f6879f7b --- /dev/null +++ b/content/es/tracing/metrics/runtime_metrics/nodejs.md @@ -0,0 +1,82 @@ +--- +aliases: +- /es/tracing/runtime_metrics/nodejs +code_lang: nodejs +code_lang_weight: 40 +description: Obtén información adicional sobre el rendimiento de tu aplicación Node.js + con las métricas de tiempo de ejecución asociadas a tus trazas (traces). +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: Documentación + text: Conecta tus logs y trazas +- link: tracing/trace_collection/custom_instrumentation + tag: Documentación + text: Instrumenta tu aplicación de forma manual para crear trazas. +- link: tracing/glossary/ + tag: Documentación + text: Explora tus servicios, recursos y trazas +title: Métricas de tiempo de ejecución de Node.js +type: multi-code-lang +--- + +<div class="alert alert-warning"> +Esta función está en fase beta pública. +</div> + +## Configuración automática + +La recopilación de métricas de tiempo de ejecución puede activarse con un parámetro de configuración en el cliente de rastreo, ya sea a través de la opción del rastreador: `tracer.init({ runtimeMetrics: true })` o a través de la variable de entorno: `DD_RUNTIME_METRICS_ENABLED=true` + + + {{< tabs >}} +{{% tab "Environment variables" %}} + +```shell +export DD_RUNTIME_METRICS_ENABLED=true +export DD_ENV=prod +export DD_SERVICE=my-web-app +export DD_VERSION=1.0.3 +``` + +{{% /tab %}} +{{% tab "In code" %}} + +```js +const tracer = require('dd-trace').init({ + env: 'prod', + service: 'my-web-app', + version: '1.0.3', + runtimeMetrics: true +}) +``` + +{{% /tab %}} +{{< /tabs >}} + +Las métricas de tiempo de ejecución se pueden ver en correlación con tus servicios de Node. Consulta el [Catálogo de servicios][1] en Datadog. + +Por defecto, las métricas de tiempo de ejecución de tu aplicación se envían al Datadog Agent con DogStatsD en el puerto `8125`. Asegúrate de que [DogStatsD está habilitado para el Agent][2]. +Si estás ejecutando el Agent como un contenedor, asegúrate de que `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` [está configurado como true][3] y que el puerto `8125` está abierto en el Agent. +En Kubernetes, [vincula el puerto de DogStatsD a un puerto host][4]; en ECS, [establece los indicadores apropiados en tu definición de tarea][5]. + +Alternativamente, el Agent puede ingerir métricas con un Unix Domain Socket (UDS) como alternativa al transporte UDP. Para más información, lee [DogStatsD en Unix Domain Socket][7]. + +## Datos recopilados + +Las siguientes métricas se recopilan por defecto después de activar las métricas de tiempo de ejecución. + +{{< get-metrics-from-git "node" >}} + +Además de mostrar estas métricas en tu Página de servicios de APM, Datadog proporciona un [dashboard de tiempo de ejecución de Node predeterminado][6]. + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services +[2]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#setup +[3]: /es/agent/docker/#dogstatsd-custom-metrics +[4]: /es/developers/dogstatsd/?tab=kubernetes#agent +[5]: /es/agent/amazon_ecs/#create-an-ecs-task +[6]: https://app.datadoghq.com/dash/integration/30269/node-runtime-metrics +[7]: /es/developers/dogstatsd/unix_socket/ \ No newline at end of file diff --git a/content/es/tracing/trace_explorer/search.md b/content/es/tracing/trace_explorer/search.md index 7f4a1349c7235..d594db07923fe 100644 --- a/content/es/tracing/trace_explorer/search.md +++ b/content/es/tracing/trace_explorer/search.md @@ -25,7 +25,6 @@ Selecciona una vista de lista de principales, y agrupa la consulta por `resource {{< img src="tracing/trace_explorer/search/trace_explorer_top_list_search.png" alt="Búsqueda de lista de Trace Explorer. La opción Visualizar como está establecida en Lista de principales." style="width:100%;">}} {{< site-region region="us,eu,us3,us5,ap1" >}} -**Nota**: Las consultas `key:value` **no** requieren que se [declare una faceta][1] de antemano. [1]: /es/tracing/trace_explorer/query_syntax/#facets {{< /site-region >}} diff --git a/content/fr/integrations/azure.md b/content/fr/integrations/azure.md index b8e1e71923dc9..e5d959cf8fc4d 100644 --- a/content/fr/integrations/azure.md +++ b/content/fr/integrations/azure.md @@ -9,6 +9,7 @@ categories: - log collection - network - notifications +custom_kind: integration dependencies: [] description: Recueillez des métriques à partir d'instances et de nombreux services Azure. @@ -70,32 +71,31 @@ integration_id: azure integration_title: Microsoft Azure integration_version: '' is_public: true -custom_kind: integration manifest_version: '1.0' monitors: - '[Azure App Gateway] Backend Hosts': assets/monitors/app_gateway_backend_hosts.json - '[Azure App Gateway] CPU Utilization': assets/monitors/app_gateway_cpu_utilization.json - '[Azure App Gateway] Failed Requests': assets/monitors/app_gateway_failed_requests.json - '[Azure App Gateway] Response HTTP Status Anomaly': assets/monitors/app_gateway_http_status_anomalies.json - '[Azure App Service] App Service Errors': assets/monitors/app_service_app_service_errors.json - '[Azure App Service] App Service Plan CPU Utilization': assets/monitors/app_service_cpu.json - '[Azure App Service] App Service Plan Memory Utilization': assets/monitors/app_service_memory.json - '[Azure App Service] Connections': assets/monitors/app_service_connections.json - '[Azure App Service] Function App Errors': assets/monitors/app_service_function_app_errors.json - '[Azure App Service] Requests': assets/monitors/app_service_requests.json - '[Azure App Service] Response Time': assets/monitors/app_service_response_times.json - '[Azure SQL Database] CPU Utilization': assets/monitors/sql_db_cpu_percent.json - '[Azure SQL Database] DTU Consumption': assets/monitors/sql_db_dtu_consumption_percent.json - '[Azure SQL Database] Deadlock Anomalies': assets/monitors/sql_db_deadlock_anomalies.json - '[Azure SQL Database] Failed Connections': assets/monitors/sql_db_connections_failed.json - '[Azure SQL Database] Georeplication Link Status ': assets/monitors/sql_db_replication_links.json - '[Azure SQL Database] Storage Utilization': assets/monitors/sql_db_storage_percent.json - '[Azure VM] CPU Utilization Monitor': assets/monitors/vm_cpu_utilization.json - '[Azure VM] Resource Health Status Monitor': assets/monitors/vm_resource_health_status.json - '[Azure] API Rate Limit': assets/monitors/rate_limits.json - '[Azure] Integration Errors': assets/monitors/integration_errors.json - '[Azure] Resource Quotas': assets/monitors/resource_quotas.json - '[Azure] Service Health Events': assets/monitors/service_health_events.json + API Rate Limit: assets/monitors/rate_limits.json + App Service Errors is high: assets/monitors/app_service_app_service_errors.json + App Service Plan CPU Utilization is high: assets/monitors/app_service_cpu.json + App Service Plan Memory Utilization is high: assets/monitors/app_service_memory.json + App gateway CPU Utilization is high: assets/monitors/app_gateway_cpu_utilization.json + Backend Hosts Anomaly: assets/monitors/app_gateway_backend_hosts.json + Connections Anomaly: assets/monitors/app_service_connections.json + DTU Consumption: assets/monitors/sql_db_dtu_consumption_percent.json + Deadlock Anomalies: assets/monitors/sql_db_deadlock_anomalies.json + Failed Connections is high: assets/monitors/sql_db_connections_failed.json + Failed Requests is high: assets/monitors/app_gateway_failed_requests.json + Function App Errors is high: assets/monitors/app_service_function_app_errors.json + Georeplication Link Status: assets/monitors/sql_db_replication_links.json + Integration Errors: assets/monitors/integration_errors.json + Requests Anomaly: assets/monitors/app_service_requests.json + Resource Health Status: assets/monitors/vm_resource_health_status.json + Resource Quotas is high: assets/monitors/resource_quotas.json + Response HTTP Status Anomaly: assets/monitors/app_gateway_http_status_anomalies.json + Response Time Anomaly: assets/monitors/app_service_response_times.json + SQL DB CPU Utilization is high: assets/monitors/sql_db_cpu_percent.json + Service Health Events: assets/monitors/service_health_events.json + Storage Utilization is high: assets/monitors/sql_db_storage_percent.json + VM CPU Utilization is high: assets/monitors/vm_cpu_utilization.json name: azure public_title: Intégration Datadog/Microsoft Azure short_description: Recueillez des métriques à partir d'instances et de nombreux services @@ -110,7 +110,7 @@ L'intégration Azure de Datadog permet de recueillir des métriques et des logs **Tous les sites** : tous les sites Datadog peuvent utiliser le processus d'inscription d'application afin de mettre en place la collecte des métriques. Ils peuvent également tous configurer un Event Hub de façon à envoyer les logs de la plateforme Azure. _Dans la mesure où l'intégration Azure permet de surveiller la région chinoise d'Azure, toute utilisation des services Datadog en Chine occidentale (ou en connexion avec des environnements se situant au sein de la Chine occidentale) est sujette à l'avertissement figurant à la section [Emplacements de service restreints][1] (en anglais) de notre site Web._ -**US3** : si votre organisation utilise le site Datadog US3, vous pouvez tirer profit de l'intégration native Azure pour simplifier la gestion et la collecte des données de votre environnement Azure. Il est recommandé d'utiliser dès que possible cette méthode. Il vous suffit de créer une ressource Datadog dans Azure afin d'associer vos abonnements Azure à votre organisation Datadog. Il n'est alors pas nécessaire d'utiliser le processus d'inscription d'application pour la collecte des métriques ni de configurer un Event Hub pour l'envoi des logs. +**US3** : si votre organisation utilise le site Datadog US3, vous pouvez tirer profit de l'intégration Azure native pour simplifier la gestion et la collecte des données de votre environnement Azure. Il est recommandé d'utiliser dès que possible cette méthode. Il vous suffit de créer une ressource Datadog dans Azure afin d'associer vos abonnements Azure à votre organisation Datadog. Il n'est alors pas nécessaire d'utiliser le processus d'inscription d'application pour la collecte des métriques ni de configurer un Event Hub pour l'envoi des logs. Associez Microsoft Azure pour : - Obtenir des métriques sur des machines virtuelles Azure sans avoir nécessairement à installer l'Agent Datadog diff --git a/content/fr/monitors/guide/create-cluster-alert.md b/content/fr/monitors/guide/create-cluster-alert.md index 631a508d48024..e116856afe33c 100644 --- a/content/fr/monitors/guide/create-cluster-alert.md +++ b/content/fr/monitors/guide/create-cluster-alert.md @@ -6,7 +6,6 @@ further_reading: - link: /monitors/notify/ tag: Documentation text: Configurer les notifications de vos monitors - title: Créer des alertes de cluster pour être informé lorsqu'un pourcentage de groupes possèdent un état critique --- @@ -31,6 +30,6 @@ Pour cet exemple, imaginons que vous souhaitez recevoir une notification lorsque Ce monitor surveille le pourcentage de hosts qui ont utilisé plus de 50 % du CPU au cours des 10 dernières minutes. Il génère une notification lorsque plus de 40 % de ces hosts répondent à la condition définie. -{{< img src="monitors/faq/cluster-status.png" alt="statut-alerte-cluster" >}} +## Pour aller plus loin {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/fr/real_user_monitoring/browser/advanced_configuration.md b/content/fr/real_user_monitoring/browser/advanced_configuration.md new file mode 100644 index 0000000000000..a614c4c62e73e --- /dev/null +++ b/content/fr/real_user_monitoring/browser/advanced_configuration.md @@ -0,0 +1,1037 @@ +--- +aliases: +- /fr/real_user_monitoring/installation/advanced_configuration/ +- /fr/real_user_monitoring/browser/modifying_data_and_context/ +further_reading: +- link: /real_user_monitoring/browser/tracking_user_actions + tag: Documentation + text: Suivi des actions utilisateur +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: Blog + text: Real User Monitoring +- link: /real_user_monitoring/browser/data_collected/ + tag: Documentation + text: Données Browser RUM recueillies +- link: /real_user_monitoring/explorer/ + tag: Documentation + text: Explorer vos vues dans Datadog +- link: /real_user_monitoring/explorer/visualize/ + tag: Documentation + text: Appliquer des visualisations sur vos événements +- link: /logs/log_configuration/attributes_naming_convention + tag: Documentation + text: Attributs standard Datadog +title: Configuration avancée +--- + +## Section Overview + +Vous pouvez modifier les [données et le contexte collectés][1] par la fonctionnalité RUM de diverses façons afin de mieux répondre à vos besoins. Par exemple : + +- Protection des données sensibles, telles que les informations personnelles. +- Connexion d'une session utilisateur à votre identification interne de cet utilisateur afin de faciliter l'assistance. +- Réduction de la quantité de données RUM recueillies, à l'aide d'un échantillonnage des données. +- Ajout de données de contexte en plus des attributs par défaut afin de mieux déterminer l'origine des données. + +## Remplacer les noms de vue RUM par défaut + +Le SDK Browser RUM génère automatiquement un [événement de vue][2] chaque fois qu'un utilisateur consulte une nouvelle page, ou lorsque l'URL de la page est modifiée (pour les applications monopages). Un nom de vue est généré à partir de l'URL de la page active, et les ID alphanumériques de variable sont supprimés automatiquement : par exemple, `/dashboard/1234` devient `/dashboard/?`. + +Depuis la [version 2.17.0][3], vous pouvez ajouter des noms de vue et les attribuer à un service dédié appartenant à une équipe, en effectuant un suivi manuel des événements de vue avec l'option `trackViewsManually` : + +1. Définissez `trackViewsManually` sur true lors de l'initialisation du SDK Browser RUM. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {{% /tab %}} + {{% tab "CDN asynchrone" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }) + }) + ``` + {{% /tab %}} + {{% tab "CDN synchrone" %}} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {{% /tab %}} + {{< /tabs >}} + +2. Vous devez lancer des vues pour chaque nouvelle page ou chaque changement de route (pour les applications monopages). Les données RUM sont recueillies à l'initialisation de la vue. Depuis la [version 4.13.0][17], vous avez également la possibilité de définir le nom et la version du service associé. + + - View Name : correspond par défaut au chemin d'URL de la page. + - Service : correspond pas défaut au service par défaut spécifié lors de la création de votre application RUM. + - Version : correspond pas défaut à la version par défaut spécifiée lors de la création de votre application RUM. + + Pour en savoir plus, consultez la section [Surveillance Browser RUM][4]. + + <details open> + <summary>Latest version</summary> + The following example manually tracks the pageviews on the <code>checkout</code> page in a RUM application. Use <code>checkout</code> for the view name and associate the <code>purchase</code> service with version <code>1.2.3</code>. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + ``` + {{% /tab %}} + {{< /tabs >}} + </details> + + <details> + <summary>before <code>v4.13.0</code></summary> + The following example manually tracks the pageviews on the <code>checkout</code> page in a RUM application. No service or version can be specified. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + datadogRum.startView('checkout') + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView('checkout') + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && window.DD_RUM.startView('checkout') + ``` + {{% /tab %}} + {{< /tabs >}} + + </details> + +Si vous utilisez React, Angular, Vue ou tout autre framework frontend, Datadog recommande d'implémenter la logique `startView` au niveau du routeur du framework. + +### Instrumentation du routeur de React + +Pour remplacer les noms par défaut de la vue du RUM afin de les aligner avec leur définition dans votre application React, vous devez suivre les étapes ci-dessous. + +**Remarque** : ces instructions sont spécifiques à la bibliothèque **React Router v6**. + +1. Définissez `trackViewsManually` sur `true` lorsque vous initialisez le SDK RUM Browser, comme décrit [plus haut](#remplacer-les-noms-de-la-vue-du-rum-par-defaut). + +2. Lancez des vues sur chaque changement de route. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + import { datadogRum } from "@datadog/browser-rum"; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + datadogRum.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + + {{% /tab %}} + {{% tab "CDN asynchrone" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + DD_RUM.onReady(function() { + DD_RUM.startView({name: viewName}); + }); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {{% /tab %}} + {{% tab "CDN synchrone" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + window.DD_RUM && + window.DD_RUM.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {{% /tab %}} + {{< /tabs >}} + +## Enrichir et contrôler les données RUM + +Le SDK Browser RUM enregistre les événements RUM et renseigne les attributs principaux correspondants. La fonction de rappel `beforeSend` vous permet d'accéder à chaque événement recueilli par le SDK Browser RUM avant qu'il ne soit envoyé à Datadog. + +L'interception d'événements RUM vous permet d'effectuer les opérations suivantes : + +- Enrichir vos événements RUM avec des attributs de contexte supplémentaires +- Modifier vos événements RUM pour en modifier le contenu ou pour effacer les séquences sensibles (consultez la [liste des propriétés modifiables](#modifier-le-contenu-d-un-evenement-rum)) +- Ignorer des événements RUM sélectionnés + +Depuis la [version 2.13.0][5], `beforeSend` prend deux arguments : `event`, qui fait référence à l'événement généré par le SDK Browser RUM, et `context`, qui fait référence au contexte qui a déclenché la création de l'événement RUM. + +```javascript +function beforeSend(event, context) +``` + +Voici les valeurs possibles pour `context` : + +| Type d'événement RUM | Contexte | +|------------------|---------------------------| +| Vue | [Location][6] | +| Action | [Event][7] | +| Ressource (XHR) | [XMLHttpRequest][7] et [PerformanceResourceTiming][8] | +| Ressource (Fetch) | [Request][10], [Response][11] et [PerformanceResourceTiming][9] | +| Ressource (autre) | [PerformanceResourceTiming][9] | +| Erreur | [Error][12] | +| Tâche longue | [PerformanceLongTaskTiming][13] | + +Pour en savoir plus, consultez le [guide pour enrichir et contrôler les données RUM][14]. + +### Enrichir des événements RUM + +En plus des attributs ajoutés avec l'[API de contexte global](#contexte-global) ou la [collecte de données Feature Flag](#enrichir-des-evenements-du-rum-avec-des-feature-flags), vous pouvez associer d'autres attributs de contexte à l'événement. Par exemple, ajoutez des tags à vos événements de ressource RUM à l'aide des données extraites à partir d'un objet de réponse Fetch : + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event, context) => { + // collecter des en-têtes de réponse d'une ressource RUM + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collecter des en-têtes de réponse d'une ressource RUM + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collecter des en-têtes de réponse d'une ressource RUM + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +Lorsqu'un utilisateur appartient à plusieurs équipes, ajoutez des paires key-value supplémentaires dans vos appels de l'API de contexte global. + +Le SDK Browser RUM ignore : + +- les attributs ajoutés en dehors de `event.context` ; +- les modifications apportées à un contexte d'événement de vue RUM. + +### Enrichir des événements du RUM avec des feature flags + +Vous pouvez [enrichir les données de vos événements RUM avec des feature flags][14] afin d'obtenir davantage de contexte et de visibilité sur le suivi des performances. Vous pouvez ainsi identifier les utilisateurs qui sont exposés à une expérience utilisateur spécifique et déterminer si cette expérience nuit aux performances de ces utilisateurs. + +### Modifier le contenu d'un événement RUM + +Par exemple, pour censurer les adresses e-mail de vos URL d'applications Web : + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + // supprimez l'adresse e-mail de l'url de la vue + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // supprimer l'e-mail de l'url de la vue + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // supprimez l'adresse e-mail de l'url de la vue + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +Vous pouvez modifier les propriétés d'événement suivantes : + +| Attribut | Type | Rôle | +|-----------------------|-----------|-----------------------------------------------------------------------------------------------------| +| `view.url` | Chaîne | L'URL de la page Web active. | +| `view.referrer` | Chaîne | L'URL de la page Web précédente à partir de laquelle l'utilisateur a accédé à la page actuelle. | +| `view.name` | Chaîne | Le nom de la vue actuelle. | +| `action.target.name` | Chaîne | L'élément avec lequel l'utilisateur a interagi. Uniquement pour les actions recueillies automatiquement. | +| `error.message` | Chaîne | Un message d'une ligne lisible et concis décrivant l'erreur. | +| `error.stack ` | Chaîne | La stack trace ou toutes informations complémentaires relatives à l'erreur. | +| `error.resource.url` | Chaîne | L'URL de la ressource qui a déclenché l'erreur. | +| `resource.url` | Chaîne | L'URL de la ressource. | +| `context` | Objet | Attributs ajoutés avec l'[API de contexte global](#contexte-global) ou lors de la génération manuelle d'événements (par exemple, `addError` et `addAction`). La valeur `context` des événements de vue RUM est en lecture seule. | + +Le SDK Browser RUM ne tient pas compte des modifications apportées aux propriétés d'événement non répertoriées ci-dessus. Pour en savoir plus les propriétés d'événement, consultez le [référentiel GitHub du SDK Browser RUM][15]. + +### Ignorer un événement RUM + +L'API `beforeSend` vous permet d'ignorer un événement RUM en renvoyant `false` : + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + }, + ... + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +**Remarque** : les événements de la vue ne peuvent pas être ignorés. + +## Session utilisateur + +L'ajout des informations utilisateur à vos sessions RUM permet : +* le suivi du parcours d'un utilisateur donné ; +* l'identification des utilisateurs les plus touchés par les erreurs ; +* la surveillance des performances de vos utilisateurs les plus importants. + +{{< img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="API Utilisateurs dans l'interface RUM" >}} + +Les attributs suivants sont facultatifs, mais Datadog vous recommande d'en renseigner au moins un : + +| Attribut | Type | Rôle | +|------------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | Chaîne | Identifiant d'utilisateur unique. | +| `usr.name` | Chaîne | Nom courant de l'utilisateur, affiché par défaut dans l'interface RUM. | +| `usr.email` | Chaîne | Adresse e-mail de l'utilisateur, affichée dans l'interface RUM si le nom de l'utilisateur n'est pas connu. Elle sert également à récupérer des Gravatars. | + +Améliorez vos capacités de filtrage en ajoutant d'autres attributs en plus de ceux recommandés. Par exemple, ajoutez des informations à propos de l'abonnement de l'utilisateur ou du groupe d'utilisateurs auquel il appartient. + +Lorsque vous modifiez l'objet de la session utilisateur, tous les événements RUM recueillis après la modification contiennent les informations les plus récentes. + +**Remarque** : lorsque vous supprimez les informations relatives à la session de l'utilisateur, comme pour une déconnexion, les informations de l'utilisateur sur la dernière vue avant la déconnexion sont conservées, mais pas celles sur les vues ultérieures ni au niveau de la session, car les données de session utilisent les valeurs de la dernière vue. + +### Identifier une session utilisateur + +`datadogRum.setUser(<OBJET_CONFIGURATION_UTILISATEUR>)` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` + +{{% /tab %}} +{{< /tabs >}} + +### Accéder à une session utilisateur + +`datadogRum.getUser()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.getUser() +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getUser() +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.getUser() +``` + +{{% /tab %}} +{{< /tabs >}} + +### Ajouter ou remplacer une propriété de session utilisateur + +`datadogRum.setUserProperty('<CLÉ_UTILISATEUR>', <VALEUR_UTILISATEUR>)` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setUserProperty('name', 'John Doe') +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUserProperty('name', 'John Doe') +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.setUserProperty('name', 'John Doe') +``` + +{{% /tab %}} +{{< /tabs >}} + +### Supprimer une propriété de session utilisateur + +`datadogRum.removeUserProperty('<CLÉ_UTILISATEUR>')` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.removeUserProperty('name') +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeUserProperty('name') +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.removeUserProperty('name') +``` +{{% /tab %}} +{{< /tabs >}} + +### Effacer une propriété de session utilisateur + +`datadogRum.clearUser()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.clearUser() +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearUser() +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.clearUser() +``` +{{% /tab %}} +{{< /tabs >}} + +## Échantillonnage + +Par défaut, aucun échantillonnage n'est appliqué au nombre de sessions recueillies. Pour appliquer un échantillonnage relatif (en pourcentage), utilisez le paramètre `sessionSampleRate` lors de l'initialisation de RUM. + +L'exemple suivant recueille seulement 90 % de toutes les sessions pour une application RUM donnée : + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '<ID_APPLICATION_DATADOG>', + clientToken: '<TOKEN_CLIENT_DATADOG>', + site: '<SITE_DATADOG>', + sessionSampleRate: 90, +}); +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '<CLIENT_TOKEN>', + applicationId: '<APPLICATION_ID>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, + }) +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '<TOKEN_CLIENT>', + applicationId: '<ID_APPLICATION>', + site: '<SITE_DATADOG>', + sessionSampleRate: 90, + }); +``` +{{% /tab %}} +{{< /tabs >}} + +Lorsqu'une session est exclue en raison d'un échantillonnage, aucune vue de page ni aucune donnée de télémétrie associée à cette session ne sont recueillies. + +## Consentement au suivi de lʼutilisateur + +Pour répondre aux exigences du RGPD, le CCPA et dʼautres régulations similaires, le SDK RUM Browser vous permet de fournir la valeur de consentement au suivi à son initialisation. Pour en savoir plus sur le consentement au suivi, consultez la section relative à la [sécurité des données][18]. + +Le paramètre dʼinitialisation `trackingConsent` peut prendre l'une des valeurs suivantes : + +1. `.granted` : le SDK RUM Browser commence à recueillir les données et les envoie à Datadog. +2. `"not-granted"` : le SDK RUM Browser ne recueille aucune donnée. + +Pour modifier la valeur de consentement au suivi après l'initialisation du SDK RUM Browser, utilisez l'appel d'API `setTrackingConsent()`. Le SDK RUM Browser modifie son comportement en tenant compte de la nouvelle valeur. + +* lorsque la valeur passe de `"granted"` à `"not-granted"`, la session du RUM sʼarrête et les données ne sont plus envoyées à Datadog. +* lorsque la valeur passe de `"not-granted"` à `"granted"`, une nouvelle session RUM est créée si aucune autre session préalable nʼest active. La collecte de données reprend alors. + +Cet état n'est pas synchronisé entre les onglets ni conservé entre les navigations. Il est de votre responsabilité de fournir la décision de l'utilisateur lors de l'initialisation du SDK RUM Browser ou en utilisant `setTrackingConsent()`. + +Lorsque `setTrackingConsent()` est utilisé avant `init()`, la valeur fournie est prioritaire sur le paramètre d'initialisation. + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', function() { + datadogRum.setTrackingConsent('granted'); +}); +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' + }); +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM.onReady(function() { + window.DD_RUM.setTrackingConsent('granted'); + }); +}); +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM && window.DD_RUM.setTrackingConsent('granted'); +}); +``` +{{% /tab %}} +{{< /tabs >}} + +## Contexte global + +### Ajouter une propriété de contexte global + +Une fois la fonctionnalité RUM initialisée, ajoutez du contexte supplémentaire à l'ensemble des événements RUM recueillis depuis votre application avec l'API `setGlobalContextProperty(key: string, value: any)` : + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setGlobalContextProperty('<CLÉ_CONTEXTE>', <VALEUR_CONTEXTE>); + +// Exemple de code +datadogRum.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('<CONTEXT_KEY>', '<CONTEXT_VALUE>'); +}) + +// Exemple de code +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} +```javascript +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('<CLÉ_CONTEXTE>', '<VALEUR_CONTEXTE>'); + +// Exemple de code +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{{% /tab %}} +{{< /tabs >}} + +### Supprimer une propriété de contexte global + +Vous pouvez supprimer une propriété de contexte global précédemment définie. + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.removeGlobalContextProperty('<CONTEXT_KEY>'); + +// Exemple de code +datadogRum.removeGlobalContextProperty('codeVersion'); +``` + +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('<CONTEXT_KEY>'); +}) + +// Exemple de code +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} + +```javascript +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('<CONTEXT_KEY>'); + +// Exemple de code +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +``` + +{{% /tab %}} +{{< /tabs >}} + + +### Remplacer le contexte global + +Remplacez le contexte par défaut de tous vos événements RUM avec l'API `setGlobalContext(context: Context)` : + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); + +// Exemple de code +datadogRum.setGlobalContext({ + codeVersion: 34, +}); +``` + +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); +}) + +// Exemple de code +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }) +}) +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} + +```javascript +window.DD_RUM && + window.DD_RUM.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); + +// Exemple de code +window.DD_RUM && + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }); +``` + +{{% /tab %}} +{{< /tabs >}} + +### Effacer le contexte global + +Vous pouvez effacer le contexte global à l'aide du paramètre `clearGlobalContext`. + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.clearGlobalContext(); +``` + +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearGlobalContext(); +}); +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} + +```javascript +window.DD_RUM && window.DD_RUM.clearGlobalContext(); +``` + +{{% /tab %}} +{{< /tabs >}} + +### Lire le contexte global + +Une fois la fonctionnalité RUM initialisée, lisez le contexte global avec l'API `getGlobalContext()` : + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const context = datadogRum.getGlobalContext(); +``` + +{{% /tab %}} +{{% tab "CDN asynchrone" %}} +```javascript +window.DD_RUM.onReady(function() { + const context = window.DD_RUM.getGlobalContext(); +}); +``` +{{% /tab %}} +{{% tab "CDN synchrone" %}} + +```javascript +const context = window.DD_RUM && window.DD_RUM.getGlobalContext(); +``` + +{{% /tab %}} +{{< /tabs >}} + +## Cycle de vie du contexte + +Par défaut, le contexte global et le contexte utilisateur sont stockés dans la mémoire de la page actuelle, ce qui signifie qu'ils ne sont pas : + +- conservés après une actualisation complète de la page +- partagés sur divers onglets ou diverses fenêtres de la même session + +Pour les ajouter à tous les événements de la session, ils doivent être joints à chaque page. + +Depuis le lancement de l'option de configuration `storeContextsAcrossPages`, avec la version 4.49.0 du SDK Browser, ces contextes peuvent être stockés dans [`localStorage`][19]. Ainsi : + +- Les contextes sont préservés après une actualisation complète +- Les contextes sont synchronisés entre les onglets ouverts depuis la même origine + +Toutefois, cette fonctionnalité possède certaines **limites** : + +- Il n'est pas conseillé de définir des informations personnelles identifiables (ou Personable Identifiable Information - PII) dans ces contextes, car les données stockées dans `localStorage` sont conservées après la fin de la session de l'utilisateur. +- Cette fonctionnalité n'est pas compatible avec les options de `trackSessionAcrossSubdomains` car les données de `localStorage` ne sont partagées qu'avec la même origine (login.site.com ≠ app.site.com). +- `localStorage` est limité à 5 MiB par origine. Ainsi, les données spécifiques à une application, les contextes Datadog et les autres données tierces stockées de façon locale doivent respecter cette limite pour éviter tout problème. + +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/real_user_monitoring/browser/data_collected/ +[2]: /fr/real_user_monitoring/browser/monitoring_page_performance/ +[3]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2170 +[4]: /fr/real_user_monitoring/browser/setup +[5]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2130 +[6]: https://developer.mozilla.org/en-US/docs/Web/API/Location +[7]: https://developer.mozilla.org/en-US/docs/Web/API/Event +[8]: https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest +[9]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming +[10]: https://developer.mozilla.org/en-US/docs/Web/API/Request +[11]: https://developer.mozilla.org/en-US/docs/Web/API/Response +[12]: https://developer.mozilla.org/en-US/docs/Web//Reference/Global_Objects/Error +[13]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceLongTaskTiming +[14]: /fr/real_user_monitoring/guide/enrich-and-control-rum-data +[15]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum-core/src/rumEvent.types.ts +[16]: /fr/logs/log_configuration/attributes_naming_convention/#user-related-attributes +[17]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v4130 +[18]: /fr/data_security/real_user_monitoring/#browser-rum-use-of-cookies +[19]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage \ No newline at end of file diff --git a/content/fr/synthetics/guide/synthetic-test-monitors.md b/content/fr/synthetics/guide/synthetic-test-monitors.md index 43197213831a0..40a05b0b689a9 100644 --- a/content/fr/synthetics/guide/synthetic-test-monitors.md +++ b/content/fr/synthetics/guide/synthetic-test-monitors.md @@ -17,8 +17,6 @@ title: Utiliser des monitors de test Synthetic Lorsque vous créez un test Synthetic, Datadog crée automatiquement un monitor associé. Vous pouvez configurer des notifications lorsque le monitor du test Synthetic envoie une alerte. -{{< img src="synthetics/guide/synthetics_test_monitors/synthetic_test_monitor.png" alt="Monitor de test Synthetic" style="width:100%;">}} - ## Créer un monitor de test Synthetic <div class="alert alert-info">Vous ne pouvez pas créer ni importer de monitor de test Synthetic dans <a href="/monitors/">Monitors</a>.</div> diff --git a/content/fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/php.md b/content/fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/php.md new file mode 100644 index 0000000000000..741b494b9d2df --- /dev/null +++ b/content/fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/php.md @@ -0,0 +1,492 @@ +--- +aliases: +- /fr/tracing/languages/php +- /fr/agent/apm/php/ +- /fr/tracing/php/ +- /fr/tracing/setup/php +- /fr/tracing/setup_overview/php +- /fr/tracing/setup_overview/setup/php +- /fr/tracing/faq/php-tracer-manual-installation/ +- /fr/tracing/trace_collection/dd_libraries/php/ +code_lang: php +code_lang_weight: 40 +further_reading: +- link: /tracing/guide/trace-php-cli-scripts/ + tag: Guide + text: Tracer des scripts CLI PHP +- link: https://www.datadoghq.com/blog/monitor-php-performance/ + tag: Blog + text: Surveillance PHP avec APM et le tracing distribué de Datadog +- link: https://github.com/DataDog/dd-trace-php + tag: Code source + text: Code source +- link: https://github.com/DataDog/dd-trace-php/blob/master/CONTRIBUTING.md + tag: Code source + text: Contribuer au projet open source +- link: /tracing/glossary/ + tag: Documentation + text: Explorer vos services, ressources et traces +title: Tracer des applications PHP +type: multi-code-lang +--- +## Exigences de compatibilité + +La version minimale requise de PHP pour la dernière version de `dd-trace-php` est PHP 7. Si vous utilisez PHP 5, vous pouvez encore utiliser le traceur PHP jusqu'à la version [0.99] (https://github.com/Datadog/dd-tracer-PHP/releases/tagger/0.99.0). PHP 5 est en fin de cycle de vie à partir de la version 1.0 de la bibliothèque PHP. + +Pour obtenir la liste complète des frameworks et versions PHP pris en charge (y compris les anciennes versions et les versions de maintenance), consultez la page relative aux [exigences de compatibilité][1]. + +## Prise en main + +Avant de commencer, vérifiez que vous avez bien [installé et configuré l'Agent][14]. + +### Installer l'extension + +Téléchargez le programme d'installation officiel : + +```shell +curl -LO https://github.com/DataDog/dd-trace-php/releases/latest/download/datadog-setup.php +``` + +Pour Alpine Linux, vous devez installer `libgcc_s` avant d'exécuter le programme d'installation : + +```shell +apk add libgcc +``` + +Exécutez le programme d'installation : + +```shell +# Installation complète : APM, ASM et profiling +php datadog-setup.php --php-bin=all --enable-appsec --enable-profiling + +# APM seulement +php datadog-setup.php --php-bin=all + +# APM et ASM +php datadog-setup.php --php-bin=all --enable-appsec + +# APM et profiling +php datadog-setup.php --php-bin=all --enable-profiling +``` + +<div class="alert alert-danger"> +<strong>Remarque</strong> : Windows ne prend en charge que l'APM. N'utilisez pas les marqueurs <code>--enable-appsec</code> et <code>--enable-profiling</code> lorsque vous tracez les applications PHP sur Windows. +</div> + +Cette commande installe l'extension sur l'ensemble des binaires PHP détectés sur le host ou le conteneur. Si vous ne précisez pas `--php-bin` dans la commande, le programme d'installation s'exécute en mode interactif et vous demande de sélectionner les binaires pertinents pour l'installation. La valeur de `--php-bin` peut être définie sur le chemin d'un binaire spécifique si jamais `dd-trace-php` doit être uniquement installé sur ce binaire. + +Redémarrez PHP (PHP-FPM ou le SAPI Apache), puis accédez à un endpoint de votre application pour lequel le tracing est activé. Pour afficher les traces générées, consultez la page relative aux [traces d'APM][5]. + +Si vous ne spécifiez pas `--enable-appsec`, l'extension AppSec se charge peu de temps après le démarrage et n'est pas activée par défaut. Cela entraîne immédiatement un court-circuit, avec une surcharge des performances négligeable. + +<div class="alert alert-info"> +<strong>Remarque :</strong> +quelques minutes peuvent s'écouler avant que les traces soient visibles dans l'interface. Si elles n'apparaissent toujours pas une fois ce délai passé, créez une page <a href="/tracing/troubleshooting/tracer_startup_logs?tab=php#php-info"><code>phpinfo()</code></a> depuis la machine du host et faites défiler jusqu'à la section `ddtrace`. Vous y trouverez les checks de diagnostic qui ont échoué, pour vous aider à identifier les éventuels problèmes. +</div> + +<div class="alert alert-warning"> +<strong>Apache ZTS :</strong> +si le binaire CLI PHP créé est de type NTS (non thread-safe), puisqu'Apache utilise une version ZTS (Zend thread-safe) de PHP, vous devez modifier manuellement le chargement de l'extension pour le binaire ZTS. Exécutez <code>/chemin/vers/zts-php --ini</code> pour déterminer l'emplacement du fichier <code>.ini</code> de Datadog, puis ajoutez le suffixe <code>-zts</code> du nom du fichier. Par exemple, remplacez <code>extension=ddtrace-20210902.so</code> par <code>extension=ddtrace-20210902-zts.so</code>. +</div> + +<div class="alert alert-warning"> +<strong>SELinux :</strong> +Si les stratégies httpd de SELinux sont configurées sur le host, la fonctionnalité du traceur peut être limitée, à moins que l'écriture et l'exécution de fichiers temporaires ne soient explicitement autorisées dans la configuration SELinux : + +`allow httpd_t httpd_tmpfs_t:file { execute execute_no_trans };` + +</div> + +## Instrumentation automatique + +Par défaut, le tracing est automatiquement activé. Une fois l'extension installée, **ddtrace** trace votre application et envoie les traces à l'Agent. + +Par défaut, Datadog prend en charge tous les frameworks Web. L'instrumentation automatique fonctionne en modifiant l'exécution de PHP pour wrapper certaines fonctions et méthodes afin de les tracer. Le traceur PHP prend en charge l'instrumentation automatique pour plusieurs bibliothèques. + +L'instrumentation automatique capture : + +* Le temps d'exécution de la méthode +* Les données de trace pertinentes, telles que l'URL et les codes de réponse de statut pour les requêtes Web ou les requêtes SQL pour l'accès à la base de données +* Les exceptions non traitées, y compris les stack traces le cas échéant +* Le nombre total de traces (p. ex. les requêtes Web) transmises via le système + +## Configuration + +Au besoin, configurez la bibliothèque de tracing pour envoyer des données de télémétrie relatives aux performances de l'application, notamment en configurant le tagging de service unifié. Consultez la section [Configuration de la bibliothèque][6] pour en savoir plus. + +## Tracer des scripts CLI à exécution courte et longue + +Des étapes supplémentaires sont requises pour instrumenter les scripts CLI. Consultez la section [Tracer des scripts CLI PHP][7] pour en savoir plus. + +## Mise à niveau + +Pour mettre à niveau le traceur PHP, [téléchargez la dernière version][5] et suivez les mêmes étapes que lors de l'[installation de l'extension](#installer-l-extension). + +Une fois l'installation terminée, redémarrez PHP (PHP-FPM ou le SAPI Apache). + +**Remarque** : si vous utilisez une mise en cache secondaire dans OPcache en définissant le paramètre `opcache.file_cache`, supprimez le dossier de cache. + +## Suppression + +Pour supprimer le tracer PHP : + +1. Pour php-fpm, arrêtez le service php-fpm ou le serveur Web Apache. +2. Dissociez les fichiers `98-ddtrace.ini` and `99-ddtrace-custom.ini` de votre dossier de configuration PHP. +3. Pour php-fpm, redémarrez le service php-fpm ou le serveur Web Apache. + +**Remarque** : si vous utilisez une mise en cache secondaire dans OPcache en définissant le paramètre `opcache.file_cache`, supprimez le dossier de cache. + +## Dépanner un crash d'application + +Si jamais le traceur PHP entraîne le crash de votre application, généralement en raison d'une erreur de segmentation, il est préférable d'obtenir un core dump ou une trace Valgrind et de contacter l'assistance Datadog. + +### Installer les symboles de debugging + +Pour que les core dumps soient lisibles, les symboles de debugging pour les binaires PHP doivent être installés sur le système qui exécute PHP. + +Pour vérifier si les symboles de debugging sont installés pour PHP ou PHP-FPM, utilisez `gdb`. + +Installez `gdb` : + +``` +apt|yum install -y gdb +``` + +Exécutez `gdb` avec le binaire souhaité. Par exemple pour PHP-FPM : + +``` +gdb php-fpm +``` + +Si la sortie de `gdb` contient une ligne similaire au texte ci-dessous, alors les symboles de debugging sont déjà installés. + +``` +... +Reading symbols from php-fpm...Reading symbols from /usr/lib/debug/chemin/vers/un/fichier.debug...done. +... +``` + +Si la sortie de `gdb` contient une ligne similaire au texte ci-dessous, alors les symboles de debugging doivent être installés : + +``` +... +Reading symbols from php-fpm...(no debugging symbols found)...done. +... +``` + + +#### Centos + +Installez le package `yum-utils` qui fournit le programme `debuginfo-install` : + +``` +yum install -y yum-utils +``` + +Trouvez le nom du package pour vos binaires PHP. Celui-ci peut varier en fonction de la méthode d'installation de PHP : + +``` +yum list installed | grep php +``` + +Installez les symboles de debugging. Par exemple, pour le package `php-fpm` : + +``` +debuginfo-install -y php-fpm +``` + +**Remarque** : si le référentiel qui fournit les binaires PHP n'est pas activé par défaut, il peut être activé lors de l'exécution de la commande `debuginfo-install`. Par exemple : + +``` +debuginfo-install --enablerepo=remi-php74 -y php-fpm +``` + +#### Debian + +##### PHP installé depuis la DPA Sury Debian + +Si PHP a été installé depuis la [DPA Sury Debian][8], les symboles de debugging sont déjà disponibles à partir de la DPA. Par exemple, pour PHP-FPM 7.2 : + +``` +apt update +apt install -y php7.2-fpm-dbgsym +``` + +##### PHP installé depuis un autre package + +Le projet Debian tient à jour une page wiki avec [des instructions pour installer les symboles de debugging][9]. + +Modifiez le fichier `/etc/apt/sources.list` : + +``` +# ... laisser tous les packages existants ici + +# ajouter un `deb` deb http://deb.debian.org/debian-debug/ $RELEASE-debug main +# Par exemple, pour buster +deb http://deb.debian.org/debian-debug/ buster-debug main +``` + +Mettez à jour `apt` : + +``` +apt update +``` + +Essayez d'abord d'utiliser les noms canoniques des packages pour les symboles de debugging. Par exemple, si le nom du package est `php7.2-fpm`, essayez : + +``` +apt install -y php7.2-fpm-dbgsym + +# Si la ligne ci-dessus ne fonctionne pas + +apt install -y php7.2-fpm-dbg +``` + +Si les symboles de debugging sont introuvables, utilisez l'utilitaire `find-dbgsym-packages`. Installez le binaire : + +``` +apt install -y debian-goodies +``` + +Tentez de trouver les symboles de debugging à l'aide du chemin complet vers le binaire ou de l'ID d'un processus en cours d'exécution : + +``` +find-dbgsym-packages /usr/sbin/php-fpm7.2 +``` + +Installez le package à l'aide du nom renvoyé, si vous l'avez trouvé : + +``` +apt install -y php7.2-fpm-{nom-du-package-renvoyé-par-les-packages-dbgsym} +``` + +#### Ubuntu + +##### PHP installé depuis `ppa:ondrej/php` + +Si PHP a été installé depuis [`ppa:ondrej/php`][10], modifiez le fichier source apt `/etc/apt/sources.list.d/ondrej-*.list` en ajoutant le composant `main/debug`. + +Avant : + +```deb http://ppa.launchpad.net/ondrej/php/ubuntu <version> main``` + +Après : + +```deb http://ppa.launchpad.net/ondrej/php/ubuntu <version> main main/debug``` + +Mettez à jour et installez les symboles de debugging. Par exemple, pour PHP-FPM 7.2 : + +``` +apt update +apt install -y php7.2-fpm-dbgsym +``` +##### PHP installé depuis un autre package + +Trouvez le nom du package pour vos binaires PHP. Celui-ci peut varier en fonction de la méthode d'installation de PHP : + +``` +apt list --installed | grep php +``` + +**Remarque** : dans certains cas, `php-fpm` peut être un méta-package qui renvoie vers le vrai package, par exemple `php7.2-fpm` pour PHP-FPM 7.2. Dans ce cas, le nom est celui du vrai package. + +Essayez d'abord d'utiliser les noms canoniques des packages pour les symboles de debugging. Par exemple, si le nom du package est `php7.2-fpm`, essayez : + +``` +apt install -y php7.2-fpm-dbgsym + +# Si la ligne ci-dessus ne fonctionne pas + +apt install -y php7.2-fpm-dbg +``` + +Si les packages `-dbg` et `-dbgsym` sont introuvables, activez les référentiels `ddebs`. Pour obtenir des instructions détaillées concernant l'[installation des symboles de debugging][11] depuis les `ddebs`, consultez la documentation Ubuntu. + +Par exemple, pour Ubuntu 18.04+, activez le référentiel `ddebs` : + +``` +echo "deb http://ddebs.ubuntu.com $(lsb_release -cs) main restricted universe multiverse" | tee -a /etc/apt/sources.list.d/ddebs.list + +echo "deb http://ddebs.ubuntu.com $(lsb_release -cs)-updates main restricted universe multiverse" | tee -a /etc/apt/sources.list.d/ddebs.list +``` + +Importez la clé de signature (assurez-vous qu'[elle est correcte][12]) : + +``` +apt install ubuntu-dbgsym-keyring +apt-key adv --keyserver keyserver.ubuntu.com --recv-keys <CLÉ DE SIGNATURE ISSUE DE LA DOCUMENTATION UBUNTU> +apt update +``` + +Essayez d'ajouter les noms canoniques des packages pour les symboles de debugging. Par exemple, si le nom du package est `php7.2-fpm`, essayez : + +``` +apt install -y php7.2-fpm-dbgsym + +# Si la ligne ci-dessus ne fonctionne pas + +apt install -y php7.2-fpm-dbg +``` + +Si les symboles de debugging sont introuvables, utilisez l'utilitaire `find-dbgsym-packages`. Installez le binaire : + +``` +apt install -y debian-goodies +``` + +Tentez de trouver les symboles de debugging à l'aide du chemin complet vers le binaire ou de l'ID d'un processus en cours d'exécution : + +``` +find-dbgsym-packages /usr/sbin/php-fpm7.2 +``` + +Installez le package à l'aide du nom renvoyé, si vous l'avez trouvé : + +``` +apt install -y php7.2-fpm-{nom-du-package-renvoyé-par-les-packages-dbgsym} +``` + +### Obtenir un core dump + +Il peut s'avérer difficile d'obtenir un core dump pour les applications PHP, notamment pour PHP-FPM. Voici quelques conseils pour vous aider : + +1. Passez en revue le log d'erreur de l'application pour déterminer si PHP-FPM a généré un core dump : + - Recherchez l'expression `(SIGSEGV - core dumped)`, afin de trouver un message confirmant l'enregistrement d'un core dump. Exemple : `WARNING: [pool www] child <pid> exited on signal 11 (SIGSEGV - core dumped) after <duration> seconds from start`. + - Recherchez l'expression `(SIGSEGV)`, afin de trouver un message confirmant le non-enregistrement d'un core dump. Exemple : `WARNING: [pool www] child <pid> exited on signal 11 (SIGSEGV) after <duration> seconds from start`. +1. Accédez au core dump en exécutant `cat /proc/sys/kernel/core_pattern`. La valeur par défaut étant généralement `core`, un fichier `core` est donc généré dans le dossier racine Web. + +Si aucun core dump n'a été généré, vérifiez les configurations suivantes et modifiez-les en fonction de vos besoins : + +1. Si `/proc/sys/kernel/core_pattern` contient un chemin comprenant des répertoires imbriqués, assurez-vous que le chemin d'accès avec les répertoires complets existe. +1. Si l'utilisateur qui exécute les workers du pool PHP-FPM n'est pas `root` (`www-data` est généralement utilisé), attribuez à cet utilisateur des autorisations d'écriture dans le répertoire des core dumps. +1. Assurez-vous que la valeur de `/proc/sys/fs/suid_dumpable` n'est pas `0`. Définissez-la sur `1` ou `2`, sauf si vous exécutez le pool de workers PHP-FPM en tant que `root`. Vérifiez vos options avec votre administrateur système. +1. Assurez-vous que la valeur de `rlimit_core` est adéquate dans la configuration du pool PHP-FPM. Vous pouvez retirer cette limite, avec `rlimit_core = unlimited`. +1. Assurez-vous que la valeur de `ulimit` est adéquate dans votre système. Vous pouvez retirer cette limite, avec `ulimit -c unlimited`. +1. Si votre application s'exécute dans un conteneur Docker et que vous souhaitez modifier `/proc/sys/*`, vous devez effectuer les changements sur la machine du host. Contactez votre administrateur système pour découvrir les différentes options qui s'offrent à vous. Si vous le pouvez, essayez de reproduire le problème dans vos environnements staging ou test. + +### Obtention d'un core dump à partir d'un site conteneur Docker + +Utilisez les informations ci-dessous pour savoir comment obtenir un core dump dans un conteneur Docker : + +1. Le site conteneur Docker doit être exécuté en tant que conteneur privilégié, et la valeur `ulimit` pour les fichiers du core doit être fixée à son maximum, comme indiqué dans les exemples ci-dessous. + - Si vous utilisez la commande `docker run`, ajoutez les arguments `--privileged` et `--ulimit core=99999999999` + - Si vous utilisez `docker compose`, ajoutez ce qui suit au fichier `docker-compose.yml` : +```yaml +privileged: true +ulimits: + core: 99999999999 +``` +2. Lorsque vous exécutez le conteneur (et avant de lancer l'application PHP ), vous devez exécuter les commandes suivantes : +``` +ulimit -c unlimited +echo '/tmp/core' > /proc/sys/kernel/core_pattern +echo 1 > /proc/sys/fs/suid_dumpable +``` + +### Obtenir une trace Valgrind + +Pour obtenir des informations plus détaillées sur le crash, exécutez l'application avec Valgrind. Contrairement aux core dumps, cette méthode fonctionne toujours dans un conteneur sans privilège. + +<div class="alert alert-danger"> +<strong>Remarque</strong> : une application exécutée à travers Valgrind est considérablement plus lente que lorsqu'elle est exécutée nativement. Cette méthode est uniquement recommandée en dehors d'un environnement de production. +</div> + +Installez Valgrind avec votre gestionnaire de package. Exécutez l'application avec Valgrind le temps de générer quelques requêtes. + +Pour une application CLI, exécutez : +{{< code-block lang=shell >}} +USE_ZEND_ALLOC=0 valgrind -- php chemin/vers/script.php +{{< /code-block >}} +Si vous utilisez `php-fpm`, exécutez : +{{< code-block lang="shell" >}} +USE_ZEND_ALLOC=0 valgrind --trace-children=yes -- php-fpm -F --fpm-config <CHEMIN_VERS_FICHIER_CONFIG> <AUTRES_OPTIONS> +{{< /code-block >}} +Si vous utilisez Apache, exécutez : +{{< code-block lang="shell" >}} +(. /etc/apache2/envvars; USE_ZEND_ALLOC=0 valgrind --trace-children=yes -- apache2 -X)` +{{< /code-block >}} + +Par défaut, la trace Valgrind obtenue est générée vers stderr ; suivez la [documentation officielle][13] (en anglais) pour la générer vers une autre cible. La sortie devrait ressembler à l'exemple ci-dessous pour un processus PHP-FPM : + +``` +==322== Conditional jump or move depends on uninitialised value(s) +==322== at 0x41EE82: zend_string_equal_val (zend_string.c:403) +==322== ... +==322== ... +==322== +==322== Process terminating with default action of signal 11 (SIGSEGV): dumping core +==322== at 0x73C8657: kill (syscall-template.S:81) +==322== by 0x1145D0F2: zif_posix_kill (posix.c:468) +==322== by 0x478BFE: ZEND_DO_ICALL_SPEC_RETVAL_UNUSED_HANDLER (zend_vm_execute.h:1269) +==322== by 0x478BFE: execute_ex (zend_vm_execute.h:53869) +==322== by 0x47D9B0: zend_execute (zend_vm_execute.h:57989) +==322== by 0x3F6782: zend_execute_scripts (zend.c:1679) +==322== by 0x394F0F: php_execute_script (main.c:2658) +==322== by 0x1FFE18: main (fpm_main.c:1939) +==322== +==322== Process terminating with default action of signal 11 (SIGSEGV) +==322== ... +==322== ... +==322== +==322== HEAP SUMMARY: +==322== in use at exit: 3,411,619 bytes in 22,428 blocks +==322== total heap usage: 65,090 allocs, 42,662 frees, 23,123,409 bytes allocated +==322== +==322== LEAK SUMMARY: +==322== definitely lost: 216 bytes in 3 blocks +==322== indirectly lost: 951 bytes in 32 blocks +==322== possibly lost: 2,001,304 bytes in 16,840 blocks +==322== still reachable: 1,409,148 bytes in 5,553 blocks +==322== of which reachable via heuristic: +==322== stdstring : 384 bytes in 6 blocks +==322== suppressed: 0 bytes in 0 blocks +==322== Rerun with --leak-check=full to see details of leaked memory +==322== +==322== Use --track-origins=yes to see where uninitialised values come from +==322== For lists of detected and suppressed errors, rerun with: -s +==322== ERROR SUMMARY: 18868 errors from 102 contexts (suppressed: 0 from 0) +``` + +### Obtenir une strace + +Certains problèmes étant causés par des facteurs externes, il peut être utile d'obtenir une `strace`. + +<div class="alert alert-danger"> +<strong>Remarque</strong> : une application exécutée à travers <code>strace</code> est considérablement plus lente que lorsqu'elle est exécutée nativement. Cette méthode est uniquement recommandée en dehors d'un environnement de production. +</div> + +Installez `strace` avec votre gestionnaire de package. Lorsque vous générez une `strace` afin de l'envoyer à l'assistance Datadog, assurez-vous d'utiliser l'option `-f` pour suivre les processus enfant. + +Pour une application CLI, exécutez : +{{< code-block lang="shell" >}} +strace -f php chemin/vers/script.php +{{< /code-block >}} + +Pour `php-fpm`, exécutez : +{{< code-block lang="shell" >}} +strace -f php-fpm -F --fpm-config <CHEMIN_VERS_FICHIER_CONFIG> <AUTRES_OPTIONS> +{{< /code-block >}} + +Pour Apache, exécutez : +{{< code-block lang="shell" >}} +(. /etc/apache2/envvars; strace -f apache2 -X) +{{< /code-block >}} + +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/tracing/compatibility_requirements/php +[2]: https://app.datadoghq.com/apm/service-setup +[3]: /fr/tracing/glossary/ +[4]: https://app.datadoghq.com/apm/traces +[5]: https://github.com/DataDog/dd-trace-php/releases +[6]: /fr/tracing/trace_collection/library_config/php/ +[7]: /fr/tracing/guide/trace-php-cli-scripts/ +[8]: https://packages.sury.org/php/ +[9]: https://wiki.debian.org/HowToGetABacktrace +[10]: https://launchpad.net/~ondrej/+archive/ubuntu/php +[11]: https://wiki.ubuntu.com/Debug%20Symbol%20Packages +[12]: https://wiki.ubuntu.com/Debug%20Symbol%20Packages#Getting_-dbgsym.ddeb_packages +[13]: https://valgrind.org/docs/manual/manual-core.html#manual-core.comment +[14]: /fr/tracing/trace_collection/automatic_instrumentation/?tab=datadoglibraries#install-and-configure-the-agent \ No newline at end of file diff --git a/content/ja/account_management/authn_mapping/_index.md b/content/ja/account_management/authn_mapping/_index.md index 7f384f94a99a6..911c79987ac91 100644 --- a/content/ja/account_management/authn_mapping/_index.md +++ b/content/ja/account_management/authn_mapping/_index.md @@ -25,7 +25,7 @@ Datadog UI では、ユーザー管理の **Mappings** タブでマッピング AuthN Mapping を JSON の本文から新しく作成します。新規作成された AuthN Mapping を返します。 -| Method | エンドポイントのパス | ペイロードの要件 | +| メソッド | エンドポイントのパス | ペイロードの要件 | |--------|----------------------|------------------| | `POST` | `/v2/authn_mappings` | JSON | diff --git a/content/ja/account_management/saml/google.md b/content/ja/account_management/saml/google.md index 95517200ddca4..e49bda042e61b 100644 --- a/content/ja/account_management/saml/google.md +++ b/content/ja/account_management/saml/google.md @@ -20,7 +20,7 @@ title: Google SAML IdP 前提として、Datadog の [SAML 構成ページ][2]で、**IDP initiated SSO** にチェックを入れる必要があります。 Application Name -: Can be anything +: 任意の名前 Description : 任意の説明 @@ -40,11 +40,11 @@ Signed Response Name ID : **Basic Information** と **Primary Email** を選択します -## Attribute mapping +## 属性のマッピング * urn:oid:1.3.6.1.4.1.5923.1.1.1.6、基本情報、メインのメールアドレス -Also add: +以下も追加してください。 * urn:oid:2.5.4.4、基本情報、姓 * urn:oid:2.5.4.42、基本情報、名 diff --git a/content/ja/account_management/saml/okta.md b/content/ja/account_management/saml/okta.md index 58d6a5d8ba6b4..8406b040020e6 100644 --- a/content/ja/account_management/saml/okta.md +++ b/content/ja/account_management/saml/okta.md @@ -29,10 +29,10 @@ Okta の[カスタム SAML アプリのインテグレーションを作成す | Okta IDP 入力フィールド | 予測値 | |-----------------------------|--------------------------------------------------------------------------------------------------------------------------------| -| シングルサインオン URL | Assertion Consumer Service URL (Find this URL on the [Configure SAML page][3], in the *Assertion Consumer Service URL* field.) | +| シングルサインオン URL | Assertion Consumer Service URL (この URL は [Configure SAML ページ][3]の *Assertion Consumer Service URL* フィールドで確認できます) | | Recipient URL | Assertion Consumer Service URL (または *Use this for Recipient URL and Destination URL* チェックボックスをオンにします) | | Destination URL | Assertion Consumer Service URL (または *Use this for Recipient URL and Destination URL* チェックボックスをオンにします) | -| Audience URI (SP Entity ID) | Service Provider Entity ID (Find this ID on the [Configure SAML page][3], in the *Service Provider Entity ID* field.) | +| Audience URI (SP Entity ID) | サービスプロバイダーのエンティティ ID (この ID は [Configure SAML ページ][3]の *Service Provider Entity ID* フィールドで確認できます) | | Name ID Format | EmailAddress | | 応答 | Signed | | Assertion Signature | Signed | @@ -55,7 +55,7 @@ Okta の[カスタム SAML アプリのインテグレーションを作成す これは [AuthN Mapping][4] を使用している場合にのみ必要です。 -| Name | 名前形式 (オプション) | 値 | +| 名前 | 名前形式 (オプション) | 値 | |----------|------------------------|---------------------------------------------------------------------------------------------------------------------------| | memberOf | 指定なし | 正規表現 `.*` に一致 (このメソッドはすべてのグループを取得します。お使いのユースケースに適合しない場合は IDP 管理者にお問い合わせください) | diff --git a/content/ja/agent/basic_agent_usage/puppet.md b/content/ja/agent/basic_agent_usage/puppet.md index 3602a45470e44..1bbfc3bdf649b 100644 --- a/content/ja/agent/basic_agent_usage/puppet.md +++ b/content/ja/agent/basic_agent_usage/puppet.md @@ -17,7 +17,7 @@ Datadog Puppet モジュールは Linux および Windows をサポートし、P puppet module install datadog-datadog_agent ``` -#### Upgrading +#### アップグレード - デフォルトでは、Datadog Agent v7.x がインストールされます。以前のバージョンの Agent を使用するには、設定 `agent_major_version` を変更します。 - `agent5_enable` は `agent_major_version` に置き換えられたため使用されなくなりました。 @@ -305,7 +305,7 @@ class { "datadog_agent": | `non_local_traffic` | 他のノードがこのノードを介してトラフィックをリレーできるようにします。 | | `apm_enabled` | APM Agent を有効にするブール値(デフォルトは false)。 | | `process_enabled` | プロセス Agent を有効にするブール値(デフォルトは false)。 | -| `scrub_args` | A boolean to enable the process cmdline scrubbing (defaults to true). | +| `scrub_args` | プロセスのコマンドラインスクラビングを有効にするブール値(デフォルトは true)。 | | `custom_sensitive_words` | スクラビング機能で使用されるデフォルトのものを超える単語を追加するための配列(デフォルトは `[]`)。 | | `logs_enabled` | ログ Agent を有効にするブール値(デフォルトは false)。 | | `windows_npm_install` | Windows NPM ドライバーのインストールを有効にするためのブール値 (デフォルトは false)。 | diff --git a/content/ja/agent/basic_agent_usage/redhat.md b/content/ja/agent/basic_agent_usage/redhat.md index effd5389624fc..516806da03ce8 100644 --- a/content/ja/agent/basic_agent_usage/redhat.md +++ b/content/ja/agent/basic_agent_usage/redhat.md @@ -51,7 +51,7 @@ Agent v6 & v7 では、オペレーティングシステムから提供される | サービスとして実行中の Agent の停止 | `sudo systemctl stop datadog-agent` | | サービスとして実行中の Agent の再起動 | `sudo systemctl restart datadog-agent` | | Agent サービスのステータス | `sudo systemctl status datadog-agent` | -| Status page of running Agent | `sudo datadog-agent status` | +| 実行中の Agent のステータスページ | `sudo datadog-agent status` | | フレアの送信 | `sudo datadog-agent flare` | | コマンドの使用方法の表示 | `sudo datadog-agent --help` | | チェックの実行 | `sudo -u dd-agent -- datadog-agent check <CHECK_NAME>` | diff --git a/content/ja/agent/basic_agent_usage/saltstack.md b/content/ja/agent/basic_agent_usage/saltstack.md index 91d79fe3cead6..e258428ee10f1 100644 --- a/content/ja/agent/basic_agent_usage/saltstack.md +++ b/content/ja/agent/basic_agent_usage/saltstack.md @@ -11,7 +11,7 @@ Datadog SaltStack Formula は、Datadog Agent および Agent ベースのイン Datadog SaltStack Formula は、Debian および RedHat ベースのシステムにのみインストールできます。 -### Installation +### インストール 以下の手順で、Datadog Formula を `base` Salt 環境に追加します。別の Salt 環境に追加する場合は、参照先の `base` を お使いの Salt 環境名に変更してください。 @@ -138,9 +138,9 @@ file_roots: ```text datadog: config: - api_key: <YOUR_DD_API_KEY> + api_key: <DD_API_キー> install_settings: - agent_version: <AGENT7_VERSION> + agent_version: <AGENT7_バージョン> checks: directory: config: diff --git a/content/ja/agent/guide/_index.md b/content/ja/agent/guide/_index.md index 33c1d74b968ea..21bfc21907190 100644 --- a/content/ja/agent/guide/_index.md +++ b/content/ja/agent/guide/_index.md @@ -18,8 +18,8 @@ title: Agent ガイド {{< /whatsnext >}} {{< whatsnext desc="Windows guides:" >}} - {{< nextlink href="agent/guide/datadog-agent-manager-windows" >}}Datadog Agent Manager for Windows{{< /nextlink >}} - {{< nextlink href="agent/guide/windows-agent-ddagent-user" >}}Datadog Windows Agent user{{< /nextlink >}} + {{< nextlink href="agent/guide/datadog-agent-manager-windows" >}}Windows 用 Datadog Agent Manager{{< /nextlink >}} + {{< nextlink href="agent/guide/windows-agent-ddagent-user" >}}Datadog Windows Agent ユーザー{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Cloud infrastructure guides:" >}} diff --git a/content/ja/agent/guide/agent-5-autodiscovery.md b/content/ja/agent/guide/agent-5-autodiscovery.md index 7a2f65b854fe7..f3603cffd3b03 100644 --- a/content/ja/agent/guide/agent-5-autodiscovery.md +++ b/content/ja/agent/guide/agent-5-autodiscovery.md @@ -252,7 +252,7 @@ spec: - containerPort: 80 ``` -#### Apache and HTTP checks +#### Apache チェックと HTTP チェック Deployment からポッドを定義する場合は、テンプレートアノテーションを Deployment のメタデータに追加しないでください。Agent はこれを参照しません。以下のように指定して、アノテーションを追加します。 diff --git a/content/ja/agent/guide/python-3.md b/content/ja/agent/guide/python-3.md index fb8753f03d577..31b23f7d2df6b 100644 --- a/content/ja/agent/guide/python-3.md +++ b/content/ja/agent/guide/python-3.md @@ -136,7 +136,7 @@ Python 2 は Unicode テキストとバイナリコード化されたデータ | type | リテラル | Python 2 | Python 3 | |---------|---------|----------|----------| -| bytes | b'...' | バイナリ | バイナリ | +| バイト | b'...' | バイナリ | バイナリ | | str | '...' | バイナリ | テキスト | | unicode | u'...' | テキスト | テキスト | diff --git a/content/ja/agent/logs/_index.md b/content/ja/agent/logs/_index.md index 252458d89a5cb..843978a989a85 100644 --- a/content/ja/agent/logs/_index.md +++ b/content/ja/agent/logs/_index.md @@ -75,7 +75,7 @@ Windows では、パス `<DRIVE_LETTER>:\\<PATH_LOG_FILE>\\<LOG_FILE_NAME>.log` {{% tab "TCP/UDP" %}} -To gather logs from your `<APP_NAME>` application that forwards its logs to TCP port **10518**, create a `<APP_NAME>.d/conf.yaml` file at the root of your [Agent's configuration directory][1] with the following content: +TCP ポート **10518** にログを転送する `<APP_NAME>` アプリケーションからログを収集するには、[Agent の構成ディレクトリ][1]のルートに以下の内容の `<APP_NAME>.d/conf.yaml` ファイルを作成します。 ```yaml logs: diff --git a/content/ja/agent/troubleshooting/site.md b/content/ja/agent/troubleshooting/site.md index e40deebf3d725..0a21e7e4c315e 100644 --- a/content/ja/agent/troubleshooting/site.md +++ b/content/ja/agent/troubleshooting/site.md @@ -4,7 +4,7 @@ title: Agent サイトの問題 デフォルトでは、Agent はそのデータを Datadog US サイト: `app.datadoghq.com` に送信します。組織が別のサイトにある場合は、[Agent メイン構成ファイル][1]の `site` パラメーターを更新するか、`DD_SITE` 環境変数を設定する必要があります。 -To update the Datadog documentation to your site, use the selector on the right. You are currently viewing documentation for: {{< region-param key="dd_full_site" code="true" >}}. +Datadog のドキュメントをサイトに更新するには、右側のセレクターを使用します。現在、{{< region-param key="dd_full_site" code="true" >}} のドキュメントを表示しています。 `DD_SITE` 変数を {{< region-param key="dd_site" code="true" >}} に設定するか、`datadog.yaml` の `site` パラメーターを更新します。 diff --git a/content/ja/cloud_cost_management/recommendations/_index.md b/content/ja/cloud_cost_management/recommendations/_index.md new file mode 100644 index 0000000000000..b0aac48e96bbb --- /dev/null +++ b/content/ja/cloud_cost_management/recommendations/_index.md @@ -0,0 +1,129 @@ +--- +description: Cost Recommendations を使用して、組織のクラウドリソースの支出を削減する方法を学びましょう。 +further_reading: +- link: /cloud_cost_management/ + tag: ドキュメント + text: Cloud Cost Management について +private: true +title: Cloud Cost Recommendations +--- + +{{< callout url = "#" btn_hidden = "true" >}} +Cloud Cost Recommendations は AWS をサポートする公開ベータ版で、<a href="/cloud_cost_management/">Cloud Cost Management</a> を設定している場合に自動的に有効になります。 +{{< /callout >}} + +## 概要 + +[Cloud Cost Recommendations][1] は、クラウドリソースの使用を最適化することでクラウド支出を削減するための提案を提供します。 + +{{< img src="cloud_cost/recommendations/cost_recommendations.png" alt="Cloud Cost Recommendations ページで、毎月の潜在的な節約額、年間の潜在的な節約額、およびオープンケースの合計数を示す概要タブ" style="width:100%;" >}} + +レコメンデーションは、請求データと可観測性データを組み合わせて、孤立した、レガシーの、または過剰にプロビジョニングされたクラウドリソースを特定します。 + +## セットアップ + +レコメンデーションを受け取りたい各 AWS アカウントについて、 + +1. [Cloud Cost Management][2] を構成して、請求データを Datadog に送信します。 +1. [AWS インテグレーションタイル][4]の **Resource Collection** タブで[リソースコレクション][3]を有効にします。 +1. [Datadog Agent][5] をインストールします (過剰にプロビジョニングされたリソースのレコメンデーションに必要)。 + +## レコメンデーションタイプ + +Datadog は、可観測性データと基盤となるクラウドプロバイダーの請求データを組み合わせて、一連のレコメンデーションを生成します。各レコメンデーションタイプの詳細なロジックは、レコメンデーション生成に使用された可観測性メトリクスやコストデータと共に、[**Recommendations** ページ][1]で確認できます。 + +{{< img src="cloud_cost/recommendations/overprovisioned_k8s_containers_sidepanel.png" alt="広告オークションサービスで過剰にプロビジョニングされている Kubernetes コンテナと、その使用状況を変更するための推奨される次のステップ、および調査メトリクスを表示するサイドパネル。" style="width:100%;" >}} + +レコメンデーションは毎日実行され、お客様のアカウントで自動的に更新されます。新しいレコメンデーションがリリースされると、Datadog は自動的にアカウントに追加します。 + +### リソースレコメンデーションの終了 + +Datadog は、クラウド環境をスキャンして、削除可能な孤立したリソースを特定します。 + +未使用の EC2 インスタンス +: CPU 使用率が 5% 未満、メモリ使用率が 10% 未満の EC2 インスタンス。 + +未接続の EBS ボリューム +: EC2 インスタンスから切り離されたボリューム。 + +未使用の EBS ボリューム +: 稼働していない EC2 インスタンスに接続されたボリューム。 + +未使用の RDS インスタンス +: データベース接続が 0、レプリカラグが 0 の RDS インスタンス。 + +放棄された S3 マルチパートアップロード +: 不完全なマルチパートのアップロード ([Storage Lens メトリクス][6]が必要)。 + +未使用の Redshift クラスター +: データベース接続が 0 の Redshift クラスター。 + +未使用の Elasticache Redis クラスター +: キャッシュヒット数 0、レプリケーションバイト数 0 の Elasticache Redis クラスター。 + +未使用の MQ ブローカー +: 接続数が 0 の MQ ブローカー。 + +古い ECR イメージ +: ECR イメージのバイトが 180 日以上古い。 + +OpenSearch クラスター +: 接続数が 0 の OpenSearch クラスター。 + +未使用の Classic Elastic Load Balancer +: EC2 インスタンスに接続されていない、アクティブな接続のない Classic Elastic Load Balancer。 + +未使用のネットワーク Elastic ロードバランサー +: 処理バイト数が 0 のネットワークロードバランサー。 + +未使用のアプリケーションロードバランサー +: トラフィックが処理されていないアプリケーションロードバランサー。 + +未使用の NAT ゲートウェイ +: 送信されたバイトがない NAT ゲートウェイ。 + +アイドル状態の Elastic IP アドレス +: AWS のコストと使用レポートにおいて、アイドル状態の課金がある Elastic IP アドレス。 + +### リソース移行のレコメンデーション + +Datadog は、レガシーなハードウェアで稼働しているリソースを表示します。コストを削減し、リソースのパフォーマンスを向上させるために、これらのリソースのアップグレードを検討することができます。 + +レガシー EC2 インスタンス +: 旧世代の、新しいインスタンスタイプにアップグレードできる EC2 インスタンス。 + +GP2 EBS ボリューム +: GP2 の、コスト削減とパフォーマンス向上のために GP3 にアップグレードできる EBS ボリューム。 + +I01 EBS ボリューム +: I01 の、コスト削減とパフォーマンス向上のために GP3 にアップグレードできる EBS ボリューム。 + +### リソースサイズ適正化のレコメンデーション + +Datadog は、使用率が低い、または過剰にプロビジョニングされている個々のリソースを特定します。コスト削減とリソースのパフォーマンス向上のために、サイズと構成の調整を検討することができます。 + +EC2 インスタンスのダウンサイジング +: オートスケーリンググループに属さず、CPU とメモリの使用率が 50% 未満の EC2 インスタンス。 + + +オーバープロビジョニングされた Kubernetes コンテナ +: CPU とメモリの使用率が 30% 未満のコンテナ。 + + +オーバープロビジョニングされた EBS ボリュームのスループット +: スループット量が使用量を上回っている EBS ボリューム。 + + +オーバープロビジョニングされた EBS ボリュームの IOPS +: IOPS の量が使用量を超えている EBS ボリューム。 + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/cost/recommendations +[2]: /ja/cloud_cost_management/aws/#setup +[3]: /ja/integrations/amazon_web_services/#resource-collection +[4]: https://app.datadoghq.com/integrations/aws +[5]: /ja/agent/ +[6]: /ja/integrations/amazon_s3_storage_lens/ \ No newline at end of file diff --git a/content/ja/continuous_integration/_index.md b/content/ja/continuous_integration/_index.md index 385ed52746867..969eb95b25509 100644 --- a/content/ja/continuous_integration/_index.md +++ b/content/ja/continuous_integration/_index.md @@ -20,6 +20,9 @@ further_reading: - link: /continuous_integration/pipelines/ tag: ドキュメント text: ビルドの問題を解決するためにパイプラインデータを調査する +- link: /account_management/billing/ci_visibility + tag: ドキュメント + text: CI Visibility の請求に関する注意事項について - link: /continuous_integration/tests/ tag: ドキュメント text: 問題のあるテストを見つけて修正するために、テストデータを調査する @@ -28,7 +31,7 @@ further_reading: text: 静的 Web アプリケーションを監視するためのベストプラクティス - link: https://www.datadoghq.com/blog/best-practices-for-ci-cd-monitoring/ tag: ブログ - text: CI/CD モニタリングのベストプラクティス + text: CI/CD 監視のベストプラクティス - link: https://www.datadoghq.com/blog/best-practices-for-monitoring-software-testing/ tag: ブログ text: CI/CD のソフトウェアテストを監視するためのベストプラクティス @@ -44,8 +47,8 @@ title: Continuous Integration Visibility <div class="alert alert-info">このページでは、継続的インテグレーション (CI) のメトリクスとデータを Datadog のダッシュボードに取り込む方法について説明します。CI パイプラインで Continuous Testing テストを実行したい場合は、<a href="/continuous_testing/cicd_integrations/" target="_blank">Continuous Testing と CI/CD</a> のセクションを参照してください。</div> -{{< learning-center-callout header="Join an enablement webinar session" hide_image="true" btn_title="Sign Up" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=CI">}} - Join the Introduction to CI Visibility session to understand how Datadog CI Visibility enhances the efficiency of CI pipelines and how to configure the Testing Visibility and Pipeline Visibility products. +{{< learning-center-callout header="イネーブルメントウェビナーセッションに参加" hide_image="true" btn_title="登録" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=CI">}} + Datadog CI Visibility がどのようにして CI パイプラインの効率を高めるのか、また、Testing Visibility と Pipeline Visibility 製品の構成方法について学ぶために、CI Visibility 入門セッションにご参加ください。 {{< /learning-center-callout >}} diff --git a/content/ja/dashboards/functions/rank.md b/content/ja/dashboards/functions/rank.md index 0f492794c4eea..44d206df2b5d7 100644 --- a/content/ja/dashboards/functions/rank.md +++ b/content/ja/dashboards/functions/rank.md @@ -25,7 +25,7 @@ title: ランク - `sum`: すべてのメトリクス値の合計。 - `last`: 最後のメトリクス値。 - `l2norm`: 時系列の[ノルム][1]を使用して (常に正の値)、系列をランク付けします。 - - `area`: Signed area under the curve being graphed, which can be negative + - `area`: グラフの曲線の下の符号付き面積。負の場合もあります。 * `DIR`: ランク付けの方向。以下のいずれかを選択します。 - `asc`: 結果を昇順でランク付けします。 diff --git a/content/ja/dashboards/guide/_index.md b/content/ja/dashboards/guide/_index.md index 7219e60a36c60..fc8ab4ebb7d29 100644 --- a/content/ja/dashboards/guide/_index.md +++ b/content/ja/dashboards/guide/_index.md @@ -38,10 +38,6 @@ title: グラフ作成ガイド {{< nextlink href="/dashboards/guide/how-weighted-works" >}}weighted() の仕組みは?{{< /nextlink >}} {{< /whatsnext >}} -{{< whatsnext desc="DDSQL Editor:" >}} - {{< nextlink href="/dashboards/guide/ddsql_use_cases" >}}Common DDSQL queries and use cases{{< /nextlink >}} -{{< /whatsnext >}} - {{< whatsnext desc="非推奨の API:" >}} {{< nextlink href="dashboards/guide/screenboard-api-doc" >}}スクリーンボード API{{< /nextlink >}} {{< nextlink href="dashboards/guide/timeboard-api-doc" >}}タイムボード API{{< /nextlink >}} diff --git a/content/ja/dashboards/guide/screenboard-api-doc.md b/content/ja/dashboards/guide/screenboard-api-doc.md index 1776ec802741a..c8aea0c419e9d 100644 --- a/content/ja/dashboards/guide/screenboard-api-doc.md +++ b/content/ja/dashboards/guide/screenboard-api-doc.md @@ -22,7 +22,7 @@ title: スクリーンボード API * **`board_title`** [必須]: ダッシュボードの名前。 * **`description`** [オプション、デフォルト = **None**]: - A description of the dashboard's content. + ダッシュボードの内容の説明。 * **`widgets`** [必須]: ウィジェット定義のリスト。ウィジェット定義を取得するには、ウィジェット構成 UI で JSON タブを使用します。 * **`template_variables`** [オプション、デフォルト = **None**]: diff --git a/content/ja/dashboards/querying/_index.md b/content/ja/dashboards/querying/_index.md index d235e48e4574d..a2a4e06c00b15 100644 --- a/content/ja/dashboards/querying/_index.md +++ b/content/ja/dashboards/querying/_index.md @@ -60,7 +60,7 @@ Datadog では、メトリクス、ログ、トレース、モニター、ダッ - `from` ドロップダウン内の[高度なフィルタリング][7]を使用して、ブール型またはワイルドカードでフィルタリングされたクエリを評価します。 - テンプレート変数を使用して、クエリを動的にフィルターします。タグキーと一緒に `$` を追加すると、グラフはテンプレート変数のドロップダウンで選択したタグを自動的に適用します。詳細は[テンプレート変数のドキュメント][16]を参照してください。 -To learn more about tags, see the [Tagging documentation][8]. +タグの詳細は、[タグ付けに関するドキュメント][8]を参照してください。 ### 集計、ロールアップする diff --git a/content/ja/dashboards/widgets/_index.md b/content/ja/dashboards/widgets/_index.md index 92ab142cb54ed..00c8aee3d589d 100644 --- a/content/ja/dashboards/widgets/_index.md +++ b/content/ja/dashboards/widgets/_index.md @@ -9,196 +9,196 @@ further_reading: text: カスタムリンク - link: https://www.datadoghq.com/blog/observability-pipelines-transform-and-enrich-logs/ tag: blog - text: Transform and enrich your logs with Datadog Observability Pipelines + text: Datadog Observability Pipelines によるログの変換と強化 title: ウィジェット --- -## Overview +## 概要 -Widgets are building blocks for your dashboards. They allow you to visualize and correlate your data across your infrastructure. +ウィジェットは、ダッシュボードの構成要素です。ウィジェットによって、インフラストラクチャー全体のデータを視覚化し、相関させることができます。 -### Graphs -{{< whatsnext desc="Generic widgets to graph data from Datadog products: ">}} +### グラフ +{{< whatsnext desc="Datadog 製品のデータをグラフ化する汎用ウィジェット: ">}} {{< nextlink href="/dashboards/widgets/change" - img="dashboards/widgets/icons/change_light_large.png">}} Change {{< /nextlink >}} + img="dashboards/widgets/icons/change_light_large.png">}} 変化 {{< /nextlink >}} {{< nextlink href="/dashboards/widgets/distribution" - img="dashboards/widgets/icons/distribution_light_large.png">}} Distribution{{< /nextlink >}} + img="dashboards/widgets/icons/distribution_light_large.png">}} ディストリビューション{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/funnel" - img="dashboards/widgets/icons/funnel_light_large.png">}} Funnel{{< /nextlink >}} + img="dashboards/widgets/icons/funnel_light_large.png">}} ファネル{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/geomap" - img="dashboards/widgets/icons/geomap_light_large.png">}} Geomap{{< /nextlink >}} + img="dashboards/widgets/icons/geomap_light_large.png">}} ジオマップ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/heat_map" - img="dashboards/widgets/icons/heatmap_light_large.png">}} Heatmap{{< /nextlink >}} + img="dashboards/widgets/icons/heatmap_light_large.png">}} ヒートマップ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/pie_chart" - img="dashboards/widgets/icons/pie_light_large.png">}} Pie Chart{{< /nextlink >}} + img="dashboards/widgets/icons/pie_light_large.png">}} 円グラフ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/query_value" - img="dashboards/widgets/icons/query-value_light_large.png">}} Query Value{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/sankey" img="dashboards/widgets/icons/sankey_light_large.svg">}} Sankey{{< /nextlink >}} + img="dashboards/widgets/icons/query-value_light_large.png">}} クエリ値{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/sankey" img="dashboards/widgets/icons/sankey_light_large.svg">}} サンキー{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/scatter_plot" - img="dashboards/widgets/icons/scatter-plot_light_large.png">}} Scatter Plot{{< /nextlink >}} + img="dashboards/widgets/icons/scatter-plot_light_large.png">}} 散布図{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/table" - img="dashboards/widgets/icons/table_light_large.png">}} Table{{< /nextlink >}} + img="dashboards/widgets/icons/table_light_large.png">}} テーブル{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/treemap" - img="dashboards/widgets/icons/treemap_light_large.png">}} Treemap{{< /nextlink >}} + img="dashboards/widgets/icons/treemap_light_large.png">}} ツリーマップ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/timeseries" - img="dashboards/widgets/icons/timeseries_light_large.png">}} Timeseries{{< /nextlink >}} + img="dashboards/widgets/icons/timeseries_light_large.png">}} 時系列{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/top_list" - img="dashboards/widgets/icons/top-list_light_large.png">}} Top List{{< /nextlink >}} + img="dashboards/widgets/icons/top-list_light_large.png">}} トップリスト{{< /nextlink >}} {{< /whatsnext >}} -### Groups -{{< whatsnext desc="Display your widgets under groups: ">}} +### グループ +{{< whatsnext desc="グループの下にウィジェットを表示します。 ">}} {{< nextlink href="/dashboards/widgets/group" - img="dashboards/widgets/icons/group_default_light_large.svg">}} Group{{< /nextlink >}} + img="dashboards/widgets/icons/group_default_light_large.svg">}} グループ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/powerpack" - img="dashboards/widgets/icons/group_powerpack_light_large.svg">}} Powerpack{{< /nextlink >}} + img="dashboards/widgets/icons/group_powerpack_light_large.svg">}} パワーパック{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/split_graph" - img="dashboards/widgets/icons/group-split_light_small.svg">}} Split Graph{{< /nextlink >}} + img="dashboards/widgets/icons/group-split_light_small.svg">}} スプリットグラフ{{< /nextlink >}} {{< /whatsnext >}} -### Annotations and embeds -{{< whatsnext desc="Decoration widgets to visually structure and annotate dashboards: ">}} +### アノテーションと埋め込み +{{< whatsnext desc="ダッシュボードを視覚的に構成し、注釈を付けるための装飾ウィジェット: ">}} {{< nextlink href="/dashboards/widgets/free_text" - img="dashboards/widgets/icons/free-text_light_large.png">}} Free Text{{< /nextlink >}} + img="dashboards/widgets/icons/free-text_light_large.png">}} フリーテキスト{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/iframe" img="dashboards/widgets/icons/iframe_light_large.png">}} Iframe{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/image" - img="dashboards/widgets/icons/image_light_large.png">}} Image{{< /nextlink >}} + img="dashboards/widgets/icons/image_light_large.png">}} 画像{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/note" - img="dashboards/widgets/icons/notes_light_large.png">}} Notes and Links{{< /nextlink >}} + img="dashboards/widgets/icons/notes_light_large.png">}} 注意事項とリンク{{< /nextlink >}} {{< /whatsnext >}} -### Lists and streams -{{< whatsnext desc="Display a list of events and issues coming from different sources: ">}} +### リストとストリーム +{{< whatsnext desc="さまざまなソースからのイベントや問題のリストを表示します。 ">}} {{< nextlink href="/dashboards/widgets/list" - img="dashboards/widgets/icons/change_light_large.png">}} List{{< /nextlink >}} + img="dashboards/widgets/icons/change_light_large.png">}} リスト{{< /nextlink >}} {{< /whatsnext >}} -### Alerting and response -{{< whatsnext desc="Summary widgets to display Monitoring information: ">}} +### アラートと対応 +{{< whatsnext desc="モニタリング情報を表示するサマリーウィジェット: ">}} {{< nextlink href="/dashboards/widgets/alert_graph" - img="dashboards/widgets/icons/alert-graph_light_large.png">}} Alert Graph{{< /nextlink >}} + img="dashboards/widgets/icons/alert-graph_light_large.png">}} アラートグラフ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/alert_value" - img="dashboards/widgets/icons/alert-value_light_large.png">}}Alert Value{{< /nextlink >}} + img="dashboards/widgets/icons/alert-value_light_large.png">}}アラート値{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/check_status" - img="dashboards/widgets/icons/check-status_light_large.png">}} Check Status{{< /nextlink >}} + img="dashboards/widgets/icons/check-status_light_large.png">}} チェックステータス{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/monitor_summary" - img="dashboards/widgets/icons/monitor-summary_light_large.png">}} Monitor Summary{{< /nextlink >}} + img="dashboards/widgets/icons/monitor-summary_light_large.png">}} モニターサマリー{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/run_workflow" - img="dashboards/widgets/icons/run-workflow_light_small.svg">}} Run Workflow{{< /nextlink >}} +img="dashboards/widgets/icons/run-workflow_light_small.svg">}} Run Workflow{{< /nextlink >}} {{< /whatsnext >}} -### Architecture -{{< whatsnext desc="Visualize infrastructure and architecture data: ">}} +### アーキテクチャ +{{< whatsnext desc="インフラストラクチャーとアーキテクチャーのデータを視覚化します。 ">}} {{< nextlink href="/dashboards/widgets/hostmap" - img="dashboards/widgets/icons/host-map_light_large.png">}} Hostmap{{< /nextlink >}} + img="dashboards/widgets/icons/host-map_light_large.png">}} ホストマップ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/topology_map" - img="dashboards/widgets/icons/service-map_light_large.png">}} Topology Map{{< /nextlink >}} + img="dashboards/widgets/icons/service-map_light_large.png">}} トポロジーマップ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/service_summary" - img="dashboards/widgets/icons/service-summary_light_large.png">}} Service Summary{{< /nextlink >}} + img="dashboards/widgets/icons/service-summary_light_large.png">}} サービスサマリー{{< /nextlink >}} {{< /whatsnext >}} -### Performance and reliability -{{< whatsnext desc="Site reliability visualizations: ">}} - {{< nextlink href="/dashboards/widgets/profiling_flame_graph" - img="dashboards/widgets/icons/profiling_flame_graph.svg">}} Profiling Flame Graph{{< /nextlink >}} +### パフォーマンスと信頼性 +{{< whatsnext desc="サイトの信頼性の視覚化: ">}} +{{< nextlink href="/dashboards/widgets/profiling_flame_graph" + img="dashboards/widgets/icons/profiling_flame_graph.svg">}} プロファイリングフレームグラフ{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/slo" - img="dashboards/widgets/icons/slo-summary_light_large.png">}} Service Level Objective (SLO) Summary{{< /nextlink >}} + img="dashboards/widgets/icons/slo-summary_light_large.png">}} サービスレベル目標 (SLO) サマリー{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/slo_list" - img="dashboards/widgets/icons/slo-list_light_large.png">}} Service Level Objective (SLO){{< /nextlink >}} + img="dashboards/widgets/icons/slo-list_light_large.png">}} サービスレベル目標 (SLO){{< /nextlink >}} {{< /whatsnext >}} -## Full screen +## 全画面 -You can view most widgets in full screen mode and do the following: +ほとんどのウィジェットをフルスクリーンモードで表示し、以下の操作を行うことができます。 -* Change time frames -* Move backward or forward by the time frame selected -* Pause the graph at the current time or view the live graph -* Reset the time frame -* Export the graph to a dashboard, notebook, or copy the query -* Download the data producing the graph in a CSV format +* タイムフレームを変更する +* 選択したタイムフレームだけ前後に移動する +* 現在の時間にグラフを一時停止するか、ライブグラフを表示する +* タイムフレームをリセットする +* ダッシュボードやノートブックにグラフをエクスポートしたり、クエリをコピーする +* グラフを生成するデータを CSV 形式でダウンロードする -To access the widget overview directly, click the full-screen button on the top right-hand corner of the widget. +ウィジェットの概要に直接アクセスするには、ウィジェットの右上にあるフルスクリーンボタンをクリックします。 -Additional options are available for [timeseries widgets][1]. +[時系列ウィジェット][1]では追加のオプションが利用可能です。 -## Custom links +## カスタムリンク -Custom links connect data values to URLs such as a Datadog page or your AWS console. +カスタムリンクは、データ値を Datadog のページや AWS コンソールなどの URL へ接続します。 -To customize interactions with data inline your generic widgets, see [Custom Links][2]. +一般的なウィジェットのインラインデータとのインタラクションをカスタマイズするには、[カスタムリンク][2]を参照してください。 -## Unit override +## 単位のオーバーライド -Customize unit values displayed on widgets to add context to your data. For more use cases and information, see the [Customize your visualizations with unit overrides][3]. -- **Unit override**: choose to display units in the family of 'memory', and have Datadog take care of displaying the appropriate scale depending on data (such as megabytes or gigabytes). -- **Unit and scale override**: fix units to a single scale (display data in megabytes regardless of value). -- **Define custom units**: define completely custom units (like 'tests' instead of a generic count). +ウィジェットに表示される単位値をカスタマイズして、データにコンテキストを追加できます。その他の使用例や情報については、[単位オーバーライドで可視化をカスタマイズする][3]を参照してください。 +- **Unit override**: 選択することで、「メモリ」ファミリーの単位が表示され、Datadog がデータに応じて適切なスケールを表示するようにします (メガバイトやギガバイトなど)。 +- **Unit and scale override**: 単位を単一のスケールに固定します (値に関係なくデータをメガバイトで表示)。 +- **Define custom units**: 完全にカスタマイズされた単位を定義します (一般的なカウントの代わりに「テスト」のような)。 -This is not an alternative for assigning units to your data. -{{< whatsnext desc="Set units at the organization level: ">}} - {{< nextlink href="/metrics/units/">}} Set Metrics Units{{< /nextlink >}} - {{< nextlink href="/logs/explorer/facets/#units">}} Set units for Event-based queries{{< /nextlink >}} +これは、データに単位を割り当てるための代替手段ではありません。 +{{< whatsnext desc="組織レベルでの単位設定: ">}} + {{< nextlink href="/metrics/units/">}} メトリクス単位の設定{{< /nextlink >}} + {{< nextlink href="/logs/explorer/facets/#units">}} イベントベースクエリの単位設定{{< /nextlink >}} {{< /whatsnext >}} -## Global time selector +## グローバルタイムセレクター -To use the global time selector, at least one time-based widget must be set to use `Global Time`. Make the selection in the widget editor under **Set display preferences**, or add a widget (global time is the default time setting). +グローバルタイムセレクターを使うには、1 つ以上の時間ベースのウィジェットが `Global Time` を使うように設定されている必要があります。**Set display preferences** でウィジェットのエディターで選択するか、またはウィジェットを追加します (グローバルタイムはデフォルトの時間設定です)。 -The global time selector sets the same time frame for all widgets using the `Global Time` option on the same dashboard. Select a moving window in the past (for example, `Past 1 Hour` or `Past 1 Day`) or a fixed period with the `Select from calendar...` option or [enter a custom time frame][11]. If a moving window is chosen, the widgets are updated to move along with the time window. +グローバルタイムセレクターは、同一のダッシュボード上で `Global Time` オプションを使用するすべてのウィジェットに対して同一のタイムフレームを設定します。過去の移動ウィンドウ (例: `Past 1 Hour`、`Past 1 Day`) を選択するか、固定期間を選択します。固定期間は、`Select from calendar...` オプションを使用します。または、[カスタムタイムフレームを入力][11]します。移動ウィンドウを選択した場合、ウィジェットはタイムウィンドウに沿って移動します。 -Widgets not linked to global time show the data for their local time frame as applied to the global window. For example, if the global time selector is set to January 1, 2019 through January 2, 2019, a widget set with the local time frame for `Past 1 Minute` shows the last minute of January 2, 2019 from 11:59 pm. +グローバルタイムにリンクされていないウィジェットは、グローバルウィンドウに適用されたローカルタイムフレームに対応するデータを表示します。たとえば、グローバルタイムセレクターが 2019 年 1 月 1 日から 2019 年 1 月 2 日に設定されている場合、ローカルタイムフレームが `Past 1 Minute` に設定されているウィジェットには、2019 年 1 月 2 日の午後 11 時 59 分からの最後の 1 分が表示されます。 -## Copy and paste widgets +## ウィジェットのコピーと貼り付け -<div class="alert alert-warning">You must have <a href="https://docs.datadoghq.com/account_management/rbac/permissions/#dashboards"><code>dashboard_public_share</code> permissions</a> and enable <a href="https://app.datadoghq.com/organization-settings/public-sharing/settings"><strong>Static Public Data Sharing</strong></a> in your Organization Settings to use this feature.</div> +<div class="alert alert-warning">この機能を使用するには、<a href="https://docs.datadoghq.com/account_management/rbac/permissions/#dashboards"><code>dashboard_public_share</code> 権限</a>を持ち、組織設定で<a href="https://app.datadoghq.com/organization-settings/public-sharing/settings"><strong>静的パブリックデータ共有</strong></a>を有効にする必要があります。</div> -Widgets can be copied on [Dashboards][4], [Notebooks][5], [APM Service][6], and the [APM resource][7] page by using `Ctrl + C` (`Cmd + C` for Mac), or by selecting the share icon and choosing "Copy". +ウィジェットを[ダッシュボード][4]、[ノートブック][5]、[APM サービス][6]、および [APM リソース][7]ページにコピーするには、`Ctrl + C` (Mac の場合は `Cmd + C`) を使用するか、共有アイコンを選択して "Copy" を選択します。 -The copied widgets can be pasted within Datadog by using `Ctrl + V` (`Cmd + V` for Mac) on: +コピーされたウィジェットは、次の場所で `Ctrl + V`(Mac の場合は `Cmd + V`)を使用して Datadog 内に貼り付けることができます。 -* **Dashboards**: Adds a new widget positioned under your mouse cursor. -* **Notebooks**: Adds a new cell at the end of the notebook. +* **ダッシュボード**: マウスカーソルの下に新しいウィジェットを追加します。 +* **ノートブック**: ノートブックの最後に新しいセルを追加します。 -You can also paste the widget into your favorite chat program that displays link previews (like Slack or Microsoft Teams). This displays a snapshot image of your graph along with a direct link to your widget. +また、リンクのプレビューを表示するお気に入りのチャットプログラム(Slack や Microsoft Teams など)にウィジェットを貼り付けることもできます。これにより、グラフのスナップショット画像とウィジェットへの直接リンクが表示されます。 -### Groups of widgets +### ウィジェットのグループ -Timeboard group widgets can be copied by hovering over the group widget area and using `Ctrl + C` (`Cmd + C` for Mac) or by selecting the share icon and choosing "Copy". +タイムボードグループウィジェットをコピーするには、グループウィジェット領域にカーソルを合わせて `Ctrl + C`(Mac の場合は `Cmd + C`)を使用するか、共有アイコンを選択して "Copy" を選択します。 -**Note**: When pasting graphs to screenboards or notebooks, individual widgets within the group are pasted. +**注**: スクリーンボードまたはノートブックにグラフを貼り付ける場合、グループ内の個々のウィジェットが貼り付けられます。 -To copy multiple screenboard widgets (edit mode only), `shift + click` on the widgets and use `Ctrl + C` (`Cmd + C` for Mac). +複数のスクリーンボードウィジェットをコピーするには(編集モードのみ)、ウィジェットを `shift + クリック`し、`Ctrl + C`(Mac の場合は `Cmd + C`)を使用します。 -**Note**: This only works when sharing within Datadog. It does not generate a preview image. +**注**: これは、Datadog 内で共有する場合にのみ機能します。プレビュー画像は生成されません。 -## Widget graphs +## ウィジェットグラフ -### Export +### エクスポート -| Format | Instructions | +| 形式 | 手順 | | ----- | ----------------------- | -| PNG | To download a widget in PNG format, click the export button in the upper right hand side of the widget, and select **Download as PNG**. | -| CSV | To download data from a timeseries, table, or top list widget in CSV format, click the export button in the upper right hand side of the widget, and select **Download as CSV**.| +| PNG | ウィジェットを PNG 形式でダウンロードするには、ウィジェットの右上にあるエクスポートボタンをクリックし、**Download as PNG** を選択します。 | +| CSV | 時系列、テーブル、またはトップリストウィジェットからデータを CSV 形式でダウンロードするには、ウィジェットの右上にあるエクスポートボタンをクリックし、**Download as CSV** を選択します。| -### Graph menu +### グラフメニュー -Click on any dashboard graph to open an options menu: +ダッシュボードグラフをクリックするとオプションメニューが開きます。 -| Option | Description | +| オプション | 説明 | |------------------------|--------------------------------------------------------------------| -| Send snapshot | Create and send a snapshot of your graph. | -| Find correlated metrics| Find correlations from APM services, integrations, and dashboards. | -| View in full screen | View the graph in [full screen mode][5]. | -| Lock cursor | Lock the cursor in place on the page. | -| View related processes | Jump to the [Live Processes][6] page scoped to your graph. | -| View related hosts | Jump to the [Host Map][7] page scoped to your graph. | -| View related logs | Jump to the [Log Explorer][8] page scoped to your graph. | -| View related traces | Populate a [Traces][9] panel scoped to your graph. | -| View related profiles | Jump to the [Profiling][10] page scoped to your graph. | - -## Further Reading +| スナップショットを送信 | グラフのスナップショットを作成および送信します。 | +| 相関関係のあるメトリクスを検索| APM サービス、インテグレーション、ダッシュボードの相関関係を検索します。 | +| View in full screen | グラフを[全画面モード][5]で表示します。 | +| カーソルをロック | ページに配置されたカーソルをロックします。 | +| View related processes | グラフ参照範囲の[ライブプロセス][6]ページへジャンプします。 | +| View related hosts | グラフ参照範囲の[ホストマップ][7]ページへジャンプします。 | +| View related logs | グラフ参照範囲の[ログエクスプローラー][8]ページへジャンプします。 | +| 関連トレースを表示 | グラフ参照範囲の[トレース][9]パネルに入力します。 | +| 関連プロファイルを表示 | グラフ参照範囲の[プロファイリング][10]ページへジャンプします。 | + +## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/dashboards/widgets/table.md b/content/ja/dashboards/widgets/table.md index b0be5d7486ef2..b935f54015424 100644 --- a/content/ja/dashboards/widgets/table.md +++ b/content/ja/dashboards/widgets/table.md @@ -49,7 +49,7 @@ widget_type: query_table ## N/A 値 テーブルウィジェットの列は、それぞれ独立してクエリが実行されます。名前が同じで重複するグループはリアルタイムで結合されて、テーブルの行が作成されます。このプロセスの結果、重複するグループがなく、セルに N/A が表示される状況が発生する可能性があります。これを回避するには、次の対策を講じます。 - * Extend the limit of queries to higher numbers, to maximize overlap between columns + * クエリ数の上限を大きくして、できるだけ多くの列が組み合わさるようにします。 * インサイトを"生み出している"と思われる列でテーブルをソートします。 ## API diff --git a/content/ja/dashboards/widgets/timeseries.md b/content/ja/dashboards/widgets/timeseries.md index 7ed426606cf7d..67cc3523e9c15 100644 --- a/content/ja/dashboards/widgets/timeseries.md +++ b/content/ja/dashboards/widgets/timeseries.md @@ -33,7 +33,7 @@ widget_type: Timeseries * Indexed Span: Indexed Span クエリの構成については、[トレース検索に関するドキュメント][4]を参照してください。 * ログイベント: ログイベントクエリの構成については、[ログ検索に関するドキュメント][5]を参照してください。 -2. Customize your graph with the available [options](#display-options). +2. [オプション](#display-options)を使用して、グラフをカスタマイズします。 ## 表示オプション diff --git a/content/ja/dashboards/widgets/top_list.md b/content/ja/dashboards/widgets/top_list.md index 3c211c7dc1ee7..913c920513f5e 100644 --- a/content/ja/dashboards/widgets/top_list.md +++ b/content/ja/dashboards/widgets/top_list.md @@ -29,7 +29,7 @@ widget_type: トップリスト 2. オプション: [グラフ表示](#graph-display)の追加構成を参照してください。 -### Options +### オプション #### グラフ表示 diff --git a/content/ja/data_security/pci_compliance.md b/content/ja/data_security/pci_compliance.md index bfb100188f22f..4fec15e38b3b0 100644 --- a/content/ja/data_security/pci_compliance.md +++ b/content/ja/data_security/pci_compliance.md @@ -30,24 +30,12 @@ Datadog は、PCI に準拠したログ管理およびアプリケーション {{% tab "ログ管理" %}} -<div class="alert alert-danger"> -PCI DSS 準拠のためには、<a href="https://docs.datadoghq.com/account_management/audit_trail/#setup">監査証跡</a>を有効にし、その状態を維持する必要があります。 -</div> - -PCI 準拠の Datadog 組織をセットアップするには、以下の手順に従います。 - {{% pci-logs %}} {{% /tab %}} {{% tab "APM" %}} -<div class="alert alert-danger"> -PCI DSS 準拠のためには、<a href="https://docs.datadoghq.com/account_management/audit_trail/#setup">監査証跡</a>を有効にし、その状態を維持する必要があります。 -</div> - -PCI 準拠の Datadog 組織をセットアップするには、以下の手順に従います。 - {{% pci-apm %}} {{% /tab %}} diff --git a/content/ja/database_monitoring/setup_oracle/selfhosted.md b/content/ja/database_monitoring/setup_oracle/selfhosted.md index c899fe0cf5494..743037aedd678 100644 --- a/content/ja/database_monitoring/setup_oracle/selfhosted.md +++ b/content/ja/database_monitoring/setup_oracle/selfhosted.md @@ -87,7 +87,7 @@ CREATE USER datadog IDENTIFIED BY &password ; {{< /tabs >}} -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ### ビューの作成 @@ -126,19 +126,19 @@ Oracle Agent のコンフィギュレーションファイル `/etc/datadog-agen init_config: instances: - server: '<HOSTNAME_1>:<PORT>' - service_name: "<CDB_SERVICE_NAME>" # The Oracle CDB service name + service_name: "<CDB_SERVICE_NAME>" # Oracle CDB サービス名 username: 'c##datadog' password: 'ENC[datadog_user_database_password]' dbm: true - tags: # Optional + tags: # オプション - 'service:<CUSTOM_SERVICE>' - 'env:<CUSTOM_ENV>' - server: '<HOSTNAME_2>:<PORT>' - service_name: "<CDB_SERVICE_NAME>" # The Oracle CDB service name + service_name: "<CDB_SERVICE_NAME>" # Oracle CDB サービス名 username: 'c##datadog' password: 'ENC[datadog_user_database_password]' dbm: true - tags: # Optional + tags: # オプション - 'service:<CUSTOM_SERVICE>' - 'env:<CUSTOM_ENV>' ``` diff --git a/content/ja/database_monitoring/setup_sql_server/rds.md b/content/ja/database_monitoring/setup_sql_server/rds.md index 719e5b1714b50..31c7a2e62b812 100644 --- a/content/ja/database_monitoring/setup_sql_server/rds.md +++ b/content/ja/database_monitoring/setup_sql_server/rds.md @@ -61,7 +61,7 @@ CREATE USER datadog FOR LOGIN datadog; これは、RDS が `CONNECT ANY DATABASE` の付与を許可していないため、必要です。Datadog Agent は、データベース固有のファイル I/O 統計情報を収集するために、各データベースに接続する必要があります。 -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ## Agent のインストール diff --git a/content/ja/database_monitoring/setup_sql_server/selfhosted.md b/content/ja/database_monitoring/setup_sql_server/selfhosted.md index 09ce927d795fb..3e21d7289491a 100644 --- a/content/ja/database_monitoring/setup_sql_server/selfhosted.md +++ b/content/ja/database_monitoring/setup_sql_server/selfhosted.md @@ -72,7 +72,7 @@ CREATE USER datadog FOR LOGIN datadog; {{% /tab %}} {{< /tabs >}} -### Securely store your password +### パスワードを安全に保管 {{% dbm-secret %}} ## Agent のインストール diff --git a/content/ja/developers/dogstatsd/datagram_shell.md b/content/ja/developers/dogstatsd/datagram_shell.md index 8dfdac2f2d3be..c28dcf436a6ae 100644 --- a/content/ja/developers/dogstatsd/datagram_shell.md +++ b/content/ja/developers/dogstatsd/datagram_shell.md @@ -24,21 +24,21 @@ title: データグラム形式とシェルの使用方法 | パラメーター | 必須 | 説明 | | ----------------------------------- | -------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------- | | `<METRIC_NAME>` | はい | ASCII 英数字、アンダースコア、およびピリオドのみを含む文字列。[メトリクス命名ポリシー][101]を参照してください。 | -| `<VALUE>` | Yes | 整数または浮動小数点数。 | +| `<VALUE>` | はい | 整数または浮動小数点数。 | | `<TYPE>` | はい | COUNT の場合は `c`、GAUGE の場合は `g`、TIMER の場合は `ms`、HISTOGRAM の場合は `h`、SET の場合は `s`、DISTRIBUTION の場合は `d`。詳細は[メトリクスタイプ][102]を参照してください。 | -| `<SAMPLE_RATE>` | いいえ | A float between `0` and `1`, inclusive. Only works with COUNT, HISTOGRAM, DISTRIBUTION, and TIMER metrics. The default is `1`, which samples 100% of the time. | +| `<SAMPLE_RATE>` | いいえ | `0` から `1` までの浮動小数点数。COUNT、HISTOGRAM、DISTRIBUTION、TIMER メトリクスでのみ機能します。デフォルトは `1` で、100% の時間をサンプリングします。 | | `<TAG_KEY_1>:<TAG_VALUE_1>,<TAG_2>` | いいえ | カンマで区切られた文字列のリスト。キー/値タグにはコロンを使用します (`env:prod`)。タグの定義に関するガイダンスについては、[タグの概要][103]を参照してください。 | 以下に、データグラムの例を示します。 - `page.views:1|c` : `page.views` COUNT メトリクスを増やします。 - `fuel.level:0.5|g`: 燃料タンクが半分空になったことを記録します。 -- `song.length:240|h|@0.5`: Sample the `song.length` histogram as if it was sent half of the time. +- `song.length:240|h|@0.5`: 半分の時間だけ送信したように `song.length` ヒストグラムをサンプリングします。 - `users.uniques:1234|s`: サイトへのユニークビジターを追跡します。 - `users.online:1|c|#country:china`: アクティブユーザー COUNT メトリクスを増やし、所属国ごとにタグ付けします。 - `users.online:1|c|@0.5|#country:china`: アクティブな中国ユーザーを追跡し、サンプルレートを使用します。 -### DogStatsD protocol v1.1 +### DogStatsD プロトコル v1.1 Agent `>=v6.25.0` && `<v7.0.0` または `>=v7.25.0` からは、値のパッキングが可能になります。これは、 `SET` を除くすべてのメトリクスタイプでサポートされています。値は `:` で区切られ、例えば次のようになります。 diff --git a/content/ja/developers/guide/query-data-to-a-text-file-step-by-step.md b/content/ja/developers/guide/query-data-to-a-text-file-step-by-step.md index 0c356df100975..e10df61022860 100644 --- a/content/ja/developers/guide/query-data-to-a-text-file-step-by-step.md +++ b/content/ja/developers/guide/query-data-to-a-text-file-step-by-step.md @@ -16,7 +16,7 @@ title: データをクエリしてテキストファイルにするまでの手 a. `<YOUR_DD_API_KEY>` と `<YOUR_DD_APP_KEY>` を [Datadog API キーとアプリケーションキー][4]に置き換えます。 - b. Replace `system.cpu.idle` with a metric you want to fetch. A list of your metrics is displayed in the [Datadog Metric Summary][5]. + b. `system.cpu.idle` を、取得するメトリクスに置き換えます。メトリクスのリストは [Datadog メトリクスサマリー][5]に表示されます。 c. オプションで、`*` をホストに置き換えて、データを絞り込みます。ホストのリストは [Datadog インフラストラクチャーリスト][6]に表示されます。 diff --git a/content/ja/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md b/content/ja/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md index c888121cd40bf..8561cd43b2839 100644 --- a/content/ja/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md +++ b/content/ja/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags.md @@ -26,7 +26,6 @@ title: メトリクスやタグの命名で推奨されるベストプラクテ * ASCII 英数字、アンダースコア、およびピリオドのみを含むことができます。その他の文字は、アンダースコアに変換されます。 * 200 文字を超えてはなりません (UI の観点から、通常 100 文字未満をお勧めします)。 * Unicode はサポートされません。 -* スペースは避けることをお勧めします。 Agent によって報告されるメトリクスは、擬似階層ドット形式 (例: `http.nginx.response_time`) で表されます。これを擬似階層として記述する目的は、実際に階層が適用されるわけではないが、階層構造を使用して何らかの関係を推定できるようにするためです (例: 「hostA と hostB は `http.nginx.*` を報告しているから、Web フロントエンドだろう」)。 diff --git a/content/ja/integrations/_index.md b/content/ja/integrations/_index.md index 0f8dd684f40a8..25a2b1c65bbf0 100644 --- a/content/ja/integrations/_index.md +++ b/content/ja/integrations/_index.md @@ -48,7 +48,7 @@ cascade: lang: en path: /integrations/amazon_web_services algolia: - category: Documentation + category: ドキュメント rank: 80 subcategory: インテグレーション tags: diff --git a/content/ja/integrations/amazon_cloudtrail.md b/content/ja/integrations/amazon_cloudtrail.md index 13414f64e7246..27be38fee776b 100644 --- a/content/ja/integrations/amazon_cloudtrail.md +++ b/content/ja/integrations/amazon_cloudtrail.md @@ -7,7 +7,7 @@ categories: - cloud - log collection - security -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: 不審な AWS アカウントアクティビティを警告。 doc_link: https://docs.datadoghq.com/integrations/amazon_cloudtrail/ @@ -39,7 +39,7 @@ AWS CloudTrail は、AWS アカウントの監査証跡を提供します。Data 他の AWS サービスについては、[Amazon Web Services インテグレーションのページ][1]を参照してください -## Setup +## セットアップ ### インストール @@ -113,35 +113,35 @@ AWS CloudTrail インテグレーションは、AWS CloudTrail の監査証跡 優先度を標準に設定された CloudTrail イベント (デフォルトのフィルターのイベントエクスプローラーに表示されます): -* apigateway -* autoscaling -* cloudformation -* cloudfront -* cloudsearch -* cloudtrail -* codedeploy -* codepipeline -* config -* datapipeline -* ds -* ec2 -* ecs -* elasticache -* elasticbeanstalk -* elasticfilesystem -* elasticloadbalancing -* elasticmapreduce -* iam -* kinesis -* lambda -* monitoring -* opsworks -* rds -* redshift -* route53 -* s3 -* ses -* signin +* apigateway +* autoscaling +* cloudformation +* cloudfront +* cloudsearch +* cloudtrail +* codedeploy +* codepipeline +* config +* datapipeline +* ds +* ec2 +* ecs +* elasticache +* elasticbeanstalk +* elasticfilesystem +* elasticloadbalancing +* elasticmapreduce +* iam +* kinesis +* lambda +* monitoring +* opsworks +* rds +* redshift +* route53 +* s3 +* ses +* signin * ssm ### サービスチェック @@ -166,4 +166,4 @@ AWS CloudTrail インテグレーションには、サービスのチェック [10]: https://app.datadoghq.com/logs [11]: https://docs.datadoghq.com/ja/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ [12]: https://docs.datadoghq.com/ja/events/ -[13]: https://docs.datadoghq.com/ja/integrations/aws/ +[13]: https://docs.datadoghq.com/ja/integrations/aws/ \ No newline at end of file diff --git a/content/ja/integrations/amazon_mq.md b/content/ja/integrations/amazon_mq.md index 48583b7f4f89e..5e86c6a8b021e 100644 --- a/content/ja/integrations/amazon_mq.md +++ b/content/ja/integrations/amazon_mq.md @@ -5,9 +5,9 @@ categories: - cloud - aws - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: [] -description: Track key AWS MQ metrics. +description: AWS MQ のキーメトリクスを追跡。 doc_link: https://docs.datadoghq.com/integrations/amazon_mq/ draft: false further_reading: @@ -93,4 +93,4 @@ AWS Amazon MQ インテグレーションには、サービスのチェック機 [5]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/?tab=allpermissions#collecting-logs-from-s3-buckets [6]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/?tab=allpermissions#collecting-logs-from-cloudwatch-log-group [7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_mq/amazon_mq_metadata.csv -[8]: https://docs.datadoghq.com/ja/help/ +[8]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/amazon_rds.md b/content/ja/integrations/amazon_rds.md index d2f0f1a9b3590..7ad6339cec93d 100644 --- a/content/ja/integrations/amazon_rds.md +++ b/content/ja/integrations/amazon_rds.md @@ -32,9 +32,9 @@ integration_version: '' is_public: true manifest_version: '1.0' monitors: - rds_cpu_utilization: assets/monitors/rds_cpu_utilization.json - rds_database_connections_anomaly: assets/monitors/rds_database_connections_anomaly.json - rds_storage_utilization: assets/monitors/rds_storage_utilization.json + Anomaly in database connections: assets/monitors/rds_database_connections_anomaly.json + CPU utilization is high: assets/monitors/rds_cpu_utilization.json + Storage utilization is high: assets/monitors/rds_storage_utilization.json name: amazon_rds public_title: Datadog-Amazon RDS インテグレーション short_description: Amazon RDS に関連する大量のメトリクスを追跡する。 diff --git a/content/ja/integrations/amazon_s3.md b/content/ja/integrations/amazon_s3.md index 46e1d11a2e60f..c9f45acc0071a 100644 --- a/content/ja/integrations/amazon_s3.md +++ b/content/ja/integrations/amazon_s3.md @@ -27,7 +27,7 @@ categories: - metrics - cloud - data stores -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -91,7 +91,7 @@ Amazon S3 インテグレーションには、イベントは含まれません ### サービスチェック -The Amazon S3 integration does not include any service checks. +Amazon S3 インテグレーションには、サービスのチェック機能は含まれません。 ## トラブルシューティング @@ -102,4 +102,4 @@ The Amazon S3 integration does not include any service checks. [3]: https://app.datadoghq.com/integrations/amazon-web-services [4]: https://app.datadoghq.com/integrations/amazon-s3 [5]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_s3/metadata.csv -[6]: https://docs.datadoghq.com/ja/help/ +[6]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/ambassador.md b/content/ja/integrations/ambassador.md index abb3d60b04e00..6d12a61ed20ac 100644 --- a/content/ja/integrations/ambassador.md +++ b/content/ja/integrations/ambassador.md @@ -25,7 +25,7 @@ categories: - containers - kubernetes - orchestration -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/ambassador/README.md display_on_public_website: true diff --git a/content/ja/integrations/azure.md b/content/ja/integrations/azure.md index a65a8d3e41326..4289acffb5a0b 100644 --- a/content/ja/integrations/azure.md +++ b/content/ja/integrations/azure.md @@ -9,7 +9,7 @@ categories: - log collection - network - notifications -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: インスタンスや多数の Azure サービスからメトリクスを収集 doc_link: https://docs.datadoghq.com/integrations/azure/ @@ -68,29 +68,29 @@ integration_version: '' is_public: true manifest_version: '1.0' monitors: - '[Azure App Gateway] Backend Hosts': assets/monitors/app_gateway_backend_hosts.json - '[Azure App Gateway] CPU Utilization': assets/monitors/app_gateway_cpu_utilization.json - '[Azure App Gateway] Failed Requests': assets/monitors/app_gateway_failed_requests.json - '[Azure App Gateway] Response HTTP Status Anomaly': assets/monitors/app_gateway_http_status_anomalies.json - '[Azure App Service] App Service Errors': assets/monitors/app_service_app_service_errors.json - '[Azure App Service] App Service Plan CPU Utilization': assets/monitors/app_service_cpu.json - '[Azure App Service] App Service Plan Memory Utilization': assets/monitors/app_service_memory.json - '[Azure App Service] Connections': assets/monitors/app_service_connections.json - '[Azure App Service] Function App Errors': assets/monitors/app_service_function_app_errors.json - '[Azure App Service] Requests': assets/monitors/app_service_requests.json - '[Azure App Service] Response Time': assets/monitors/app_service_response_times.json - '[Azure SQL Database] CPU Utilization': assets/monitors/sql_db_cpu_percent.json - '[Azure SQL Database] DTU Consumption': assets/monitors/sql_db_dtu_consumption_percent.json - '[Azure SQL Database] Deadlock Anomalies': assets/monitors/sql_db_deadlock_anomalies.json - '[Azure SQL Database] Failed Connections': assets/monitors/sql_db_connections_failed.json - '[Azure SQL Database] Georeplication Link Status ': assets/monitors/sql_db_replication_links.json - '[Azure SQL Database] Storage Utilization': assets/monitors/sql_db_storage_percent.json - '[Azure VM] CPU Utilization Monitor': assets/monitors/vm_cpu_utilization.json - '[Azure VM] Resource Health Status Monitor': assets/monitors/vm_resource_health_status.json - '[Azure] API Rate Limit': assets/monitors/rate_limits.json - '[Azure] Integration Errors': assets/monitors/integration_errors.json - '[Azure] Resource Quotas': assets/monitors/resource_quotas.json - '[Azure] Service Health Events': assets/monitors/service_health_events.json + API Rate Limit: assets/monitors/rate_limits.json + App Service Errors is high: assets/monitors/app_service_app_service_errors.json + App Service Plan CPU Utilization is high: assets/monitors/app_service_cpu.json + App Service Plan Memory Utilization is high: assets/monitors/app_service_memory.json + App gateway CPU Utilization is high: assets/monitors/app_gateway_cpu_utilization.json + Backend Hosts Anomaly: assets/monitors/app_gateway_backend_hosts.json + Connections Anomaly: assets/monitors/app_service_connections.json + DTU Consumption: assets/monitors/sql_db_dtu_consumption_percent.json + Deadlock Anomalies: assets/monitors/sql_db_deadlock_anomalies.json + Failed Connections is high: assets/monitors/sql_db_connections_failed.json + Failed Requests is high: assets/monitors/app_gateway_failed_requests.json + Function App Errors is high: assets/monitors/app_service_function_app_errors.json + Georeplication Link Status: assets/monitors/sql_db_replication_links.json + Integration Errors: assets/monitors/integration_errors.json + Requests Anomaly: assets/monitors/app_service_requests.json + Resource Health Status: assets/monitors/vm_resource_health_status.json + Resource Quotas is high: assets/monitors/resource_quotas.json + Response HTTP Status Anomaly: assets/monitors/app_gateway_http_status_anomalies.json + Response Time Anomaly: assets/monitors/app_service_response_times.json + SQL DB CPU Utilization is high: assets/monitors/sql_db_cpu_percent.json + Service Health Events: assets/monitors/service_health_events.json + Storage Utilization is high: assets/monitors/sql_db_storage_percent.json + VM CPU Utilization is high: assets/monitors/vm_cpu_utilization.json name: azure public_title: Datadog-Microsoft Azure インテグレーション short_description: インスタンスや多数の Azure サービスからメトリクスを収集 @@ -169,26 +169,26 @@ Datadog の Azure インテグレーションは、<a href="https://docs.microso ### 自動 -_全サイト:_ +_全サイト:_ Datadog と Azure の標準インテグレーションを自動的にセットアップする手順については、[標準 Azure インテグレーションプログラム管理ガイド][50]を参照してください。Terraform や Azure CLI を通じてインテグレーションをセットアップし、 Datadog Azure VM 拡張機能を通じて Datadog Agent をネイティブに Azure にデプロイし、 自動化スクリプトを実行してログ収集を有効にすることができます。 -_US3:_ +_US3:_ Terraform を使用して Datadog の Azure Native インテグレーションを Azure の Datadog リソースでセットアップする手順については、[Azure ネイティブインテグレーションプログラム管理ガイド][51]を参照してください。 ### 手動 -_全サイト:_ +_全サイト:_ Azure ポータルや CLI を通じた Datadog と Azure のインテグレーションを手動でセットアップする手順や、VM 拡張機能または AKS Cluster 拡張機能を用いて Azure に Datadog Agent を直接デプロイする手順については、[標準 Azure インテグレーション手動セットアップガイド][52]を参照してください。 -_US3:_ +_US3:_ Azure Native と Datadog のインテグレーションを手動でセットアップする手順については、[Azure ネイティブインテグレーション手動セットアップガイド][53]を参照してください。これには、Azure における Datadog リソースの作成、VM 拡張機能または AKS Cluster 拡張機能による Datadog Agent の Azure への直接デプロイ、シングルサインオン (SSO) のオプション構成が含まれます。 ## 収集データ -_全サイト:_ +_全サイト:_ Azure ログを Datadog に送信する手順については、[Azure ログを Datadog に送信する][54]ガイドを参照してください。Datadog-Azure 関数と Azure Event Hub を介したログ収集を有効にするには、自動プロセスまたは手動プロセスのいずれかを選択できます。また、Azure Blob Storage Function を使用して、すべての Azure App Services からログを収集することもできます。 -_US3:_ +_US3:_ サブスクリプションレベル、Azure リソース、Azure Active Directory のログを Datadog に送信する手順については、[Datadog リソースで Azure ログを送信する][55]ガイドを参照してください。 ## 収集データ @@ -201,7 +201,7 @@ _US3:_ ### イベント -Azure インテグレーションは、自動的に Azure サービス健全性イベントを収集します。これを Datadog で表示するには、[イベントエクスプローラー][57]に移動し、`Azure Service Health` ネームスペースをフィルタリングします。 +Azure インテグレーションは、自動的に Azure サービス健全性イベントを収集します。これを Datadog で表示するには、[イベントエクスプローラー][57]に移動し、`Azure Service Health` ネームスペースをフィルタリングします。 ### サービスチェック @@ -289,4 +289,4 @@ Azure インテグレーションのメトリクス、イベント、および [56]: https://www.datadoghq.com/blog/datadog-generated-metrics-azure/ [57]: https://app.datadoghq.com/event/explorer [58]: https://docs.datadoghq.com/ja/integrations/guide/azure-troubleshooting/ -[59]: https://docs.datadoghq.com/ja/help/ +[59]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/convox.md b/content/ja/integrations/convox.md index 99a42342a8f2c..31542922af05d 100644 --- a/content/ja/integrations/convox.md +++ b/content/ja/integrations/convox.md @@ -24,7 +24,7 @@ categories: - cloud - configuration & deployment - containers -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/convox/README.md display_on_public_website: true @@ -133,4 +133,4 @@ Convox インテグレーションには、サービスのチェック機能は [3]: http://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_cwet.html [4]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/convox/images/setting_environment_variables.png [5]: https://docs.datadoghq.com/ja/help/ -[6]: https://www.datadoghq.com/blog/monitor-aws-ecs-convox-integration/ +[6]: https://www.datadoghq.com/blog/monitor-aws-ecs-convox-integration/ \ No newline at end of file diff --git a/content/ja/integrations/disk.md b/content/ja/integrations/disk.md index b65d375754fb9..d33412a4543d3 100644 --- a/content/ja/integrations/disk.md +++ b/content/ja/integrations/disk.md @@ -21,7 +21,7 @@ author: support_email: help@datadoghq.com categories: - os & system -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/disk/README.md display_name: Disk @@ -38,7 +38,7 @@ manifest_version: 2.0.0 metric_prefix: system. metric_to_check: system.disk.free monitors: - disk-space-forecast: assets/monitors/disk_monitor.json + Device is going to be full: assets/monitors/disk_monitor.json name: disk public_title: Disk short_description: ディスクチェックで、マウントされたディスクのメトリクスを収集。 @@ -129,4 +129,4 @@ Disk チェックには、イベントは含まれません。 [6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [7]: https://github.com/DataDog/integrations-core/blob/master/disk/metadata.csv [8]: https://github.com/DataDog/integrations-core/blob/master/disk/assets/service_checks.json -[9]: https://docs.datadoghq.com/ja/help/ +[9]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/eventstore.md b/content/ja/integrations/eventstore.md index 098eb857c4ddd..8f85a54696b0d 100644 --- a/content/ja/integrations/eventstore.md +++ b/content/ja/integrations/eventstore.md @@ -24,7 +24,7 @@ author: categories: - キャッシュ - data stores -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/eventstore/README.md display_on_public_website: true @@ -64,7 +64,7 @@ tile: ## 概要 -Get metrics from EventStore in real time to: +EventStore からメトリクスをリアルタイムに取得して、以下のことができます。 * EventStore のキューを視覚化および監視できます。 * 以下の API エンドポイントで、使用可能なすべてのメトリクスをキャプチャします。統計、ノード情報、非過渡的な予測、サブスクリプション、クラスターゴシップ(スクレープするエンドポイントのリストは構成できます) @@ -126,4 +126,4 @@ eventstore チェックには、サービスのチェック機能は含まれま [6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-restart-the-agent [7]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#service-status [8]: https://github.com/DataDog/integrations-extras/blob/master/eventstore/metadata.csv -[9]: https://github.com/DataDog/integrations-extras/blob/master/eventstore/manifest.json +[9]: https://github.com/DataDog/integrations-extras/blob/master/eventstore/manifest.json \ No newline at end of file diff --git a/content/ja/integrations/gnatsd.md b/content/ja/integrations/gnatsd.md index b7f8061b9b6cd..c02769cd636d9 100644 --- a/content/ja/integrations/gnatsd.md +++ b/content/ja/integrations/gnatsd.md @@ -24,7 +24,7 @@ author: categories: - message queues - notifications -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/gnatsd/README.md display_on_public_website: true @@ -62,7 +62,7 @@ tile: <!-- SOURCED FROM https://github.com/DataDog/integrations-extras --> -## Overview +## 概要 Gnatsd サービスからメトリクスをリアルタイムに取得して、以下のことができます。 @@ -131,4 +131,4 @@ gnatsd チェックには、イベントは含まれません。 [7]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#service-status [8]: https://github.com/DataDog/datadog-sdk-testing/blob/master/lib/config/metadata.csv [9]: https://github.com/DataDog/integrations-extras/blob/master/gnatsd/assets/service_checks.json -[10]: https://docs.datadoghq.com/ja/help/ +[10]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/gnatsd_streaming.md b/content/ja/integrations/gnatsd_streaming.md index 202976fb44388..fc6c5b44dffaa 100644 --- a/content/ja/integrations/gnatsd_streaming.md +++ b/content/ja/integrations/gnatsd_streaming.md @@ -23,7 +23,7 @@ author: support_email: dev@goldstar.com categories: - network -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/gnatsd_streaming/README.md display_on_public_website: true @@ -128,4 +128,4 @@ Nats ストリーミングサーバーをフォールトトレラントグルー [7]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#service-status [8]: https://github.com/DataDog/datadog-sdk-testing/blob/master/lib/config/metadata.csv [9]: https://github.com/DataDog/integrations-extras/blob/master/gnatsd_streaming/assets/service_checks.json -[10]: http://docs.datadoghq.com/help +[10]: http://docs.datadoghq.com/help \ No newline at end of file diff --git a/content/ja/integrations/google_cloud_dataflow.md b/content/ja/integrations/google_cloud_dataflow.md index ce7923dfc5dcd..1bf6531deb814 100644 --- a/content/ja/integrations/google_cloud_dataflow.md +++ b/content/ja/integrations/google_cloud_dataflow.md @@ -3,7 +3,7 @@ categories: - cloud - google cloud - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: Google Cloud Dataflow のキーメトリクスを追跡 doc_link: https://docs.datadoghq.com/integrations/google_cloud_dataflow/ @@ -20,7 +20,7 @@ integration_version: '' is_public: true manifest_version: '1.0' monitors: - job-backlog-time: assets/monitors/backlog_monitor.json + Job backlog time is high: assets/monitors/backlog_monitor.json name: google_cloud_dataflow public_title: Datadog-Google Cloud Dataflow インテグレーション short_description: Google Cloud Dataflow のキーメトリクスを追跡 @@ -84,4 +84,4 @@ Google Cloud Dataflow インテグレーションには、サービスのチェ [2]: https://docs.datadoghq.com/ja/integrations/google_cloud_platform/?tab=datadogussite#log-collection [3]: https://console.cloud.google.com/logs/viewer [4]: https://github.com/DataDog/dogweb/blob/prod/integration/google_cloud_dataflow/google_cloud_dataflow_metadata.csv -[5]: https://docs.datadoghq.com/ja/help/ +[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/guide/collect-sql-server-custom-metrics.md b/content/ja/integrations/guide/collect-sql-server-custom-metrics.md index d79fb6e67b1d7..53a335bd51c0e 100644 --- a/content/ja/integrations/guide/collect-sql-server-custom-metrics.md +++ b/content/ja/integrations/guide/collect-sql-server-custom-metrics.md @@ -20,7 +20,7 @@ SQL Server インテグレーションでより複雑なカスタムメトリク | オプション | 必須 | 説明 | |---------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| クエリ | はい | 実行する SQL です。簡単なステートメントにすることも、複数行のスクリプトにすることもできます。結果のすべての行が評価されます。複数行のスクリプトが必要な場合は、パイプ文字 (`\|`) if you require a multi-line script. | +| クエリ | はい | 実行する SQL です。簡単なステートメントにすることも、複数行のスクリプトにすることもできます。結果のすべての行が評価されます。複数行のスクリプトが必要な場合は、パイプ文字 (`\|`) を使用します。 | | 列 | はい | 列を表すリストです。左から右へ順に並べられます。<br><br>次の 2 つの必須データがあります。<br> - **`name`**: サフィックスとして `metric_prefix` に付加され、完全な名前を形成します。`type` が `tag` と指定されている場合、この列は、このクエリによって収集されるすべてのメトリクスにタグとして適用されます。<br> - **`type`**: 送信方法 (`gauge`、`count`、`rate` など)。`tag` と設定し、この列のアイテムの名前と値 (`<name>:<row_value>`) で行の各メトリクスにタグ付けすることができます。 | | usage-metering-get-hourly-usage-for-lambda-traced-invocations | いいえ | 各メトリクスに適用する静的タグのリスト。 diff --git a/content/ja/integrations/ibm_was.md b/content/ja/integrations/ibm_was.md index c43f44aa08e34..810675a685946 100644 --- a/content/ja/integrations/ibm_was.md +++ b/content/ja/integrations/ibm_was.md @@ -26,7 +26,7 @@ author: categories: - ログの収集 - OS & システム -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/ibm_was/README.md display_on_public_website: true @@ -34,7 +34,7 @@ draft: false git_integration_title: ibm_was integration_id: ibm-was integration_title: IBM WAS -integration_version: 3.3.1 +integration_version: 3.3.2 is_public: true manifest_version: 2.0.0 name: ibm_was @@ -193,4 +193,4 @@ IBM WAS には、イベントは含まれません。 [3]: https://github.com/DataDog/integrations-core/blob/master/ibm_was/datadog_checks/ibm_was/data/conf.yaml.example [4]: https://app.datadoghq.com/account/settings/agent/latest [5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[6]: https://docs.datadoghq.com/ja/help/ +[6]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/java.md b/content/ja/integrations/java.md index 5411cd5be1109..d57a26102004c 100644 --- a/content/ja/integrations/java.md +++ b/content/ja/integrations/java.md @@ -4,7 +4,7 @@ categories: - network - oracle - tracing -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: Yammer メトリクスライブラリを使用して、アプリケーションからカスタムメトリクスを収集。 doc_link: https://docs.datadoghq.com/integrations/java/ @@ -54,7 +54,7 @@ JMX チェックには、インスタンスあたり 350 メトリクスの制 アプリケーションで [JMX][1] メトリクスが公開されている場合、Datadog Agent から軽量の Java プラグインである JMXFetch (Java 1.7 以上とのみ互換) が呼び出され、MBean サーバーに接続してアプリケーションのメトリクスを収集します。また、監視対象のインスタンスのステータスを報告するサービスチェックを送信することも可能です。このプラグインは、Agent 内で稼働する [DogStatsD][2] サーバーを使用して Datadog Agent にメトリクスを送信します。このインテグレーションでは以下の JMX メトリクスも同様に使用されます。 -- ActiveMQ +- ActiveMQ - Cassandra - Solr - Tomcat @@ -62,7 +62,7 @@ JMX チェックには、インスタンスあたり 350 メトリクスの制 **注**: DogStatsD を介して RATE メトリクスタイプを送信する場合、メトリクスは異なる Agent 間で適切な比較ができるようにアプリ内に GAUGE として表示されます。詳しくは[メトリクスの送信: DogStatsD のドキュメント][3]を参照してください。 -#### Installation +#### インストール [JMX リモート接続を開く][4]ことができるかをご確認ください。Datadog Agent が JVM に接続するためには、両者が同じホスト上にある場合でもリモート接続が必要です。セキュリティ上の理由から、リスニングアドレスには `0.0.0.0` を使用しないことをお勧めします。同じ場所に配置された JVM と Agent には `com.sun.management.jmxremote.host=127.0.0.1` を使用することをお勧めします。 @@ -321,4 +321,4 @@ jvm.gc.parnew.time => jvm.gc.minor_collection_time [13]: https://docs.datadoghq.com/ja/tracing/setup/java/ [14]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/jmx.d/conf.yaml.example [15]: https://github.com/DataDog/dogweb/blob/prod/integration/java/service_checks.json -[16]: https://docs.datadoghq.com/ja/integrations/faq/troubleshooting-jmx-integrations/ +[16]: https://docs.datadoghq.com/ja/integrations/faq/troubleshooting-jmx-integrations/ \ No newline at end of file diff --git a/content/ja/integrations/jira.md b/content/ja/integrations/jira.md index df0c1b8d2866d..55f71fe6e283e 100644 --- a/content/ja/integrations/jira.md +++ b/content/ja/integrations/jira.md @@ -4,12 +4,10 @@ categories: - developer tools - issue tracking - notifications -custom_kind: integration +custom_kind: インテグレーション dependencies: [] -description: This integration allows you to create tickets from triggered alerts in - Datadog, and update existing tickets with new information as it arises. Additionally, - you can see Jira ticket creations as events within Datadog to overlay with all of - your metrics. +description: このインテグレーションにより、Datadog でトリガーされたアラートからチケットを作成し、新しい情報が発生すると既存のチケットを更新することができます。さらに、Jira + チケットの作成を Datadog 内のイベントとして表示し、すべてのメトリクスと重ね合わせることができます。 doc_link: https://docs.datadoghq.com/integrations/jira/ draft: false git_integration_title: jira @@ -146,4 +144,4 @@ Jira インテグレーションには、サービスのチェック機能は含 [3]: https://docs.datadoghq.com/ja/service_management/case_management/settings/#jira [4]: https://app.datadoghq.com/account/settings#integrations/jira [5]: https://docs.datadoghq.com/ja/integrations/webhooks/ -[6]: https://docs.datadoghq.com/ja/help/ +[6]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/n2ws.md b/content/ja/integrations/n2ws.md index 32a25c720d67c..1342fb8610c05 100644 --- a/content/ja/integrations/n2ws.md +++ b/content/ja/integrations/n2ws.md @@ -28,7 +28,7 @@ author: support_email: eliad.eini@n2ws.com categories: - cloud -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/n2ws/README.md display_on_public_website: true @@ -70,8 +70,8 @@ tile: N2WS として知られる N2WS Backup & Recovery (CPM) は、Amazon Web Services (AWS) および Microsoft Azure 向けのエンタープライズクラスのバックアップ、リカバリ、およびディザスタリカバリソリューションです。N2WS は、クラウドネイティブテクノロジー (スナップショット) を使用して、AWS および Azure のバックアップや復元機能を提供します。 -Your N2WS Backup and Recovery instance supports the monitoring of backups, disaster recovery, copy to S3, alerts, -and more with Datadog's monitoring service. This integration allows users to monitor and analyze the N2WS Backup and Recovery Dashboard metrics. +N2WS Backup and Recovery インスタンスは、Datadog のモニタリングサービスを使用したバックアップのモニタリング、ディザスタリカバリ、S3 へのコピー、アラートなどをサポートします。 +このインテグレーションにより、ユーザーは N2WS Backup and Recovery ダッシュボードのメトリクスを監視、分析できます。 ## セットアップ @@ -148,4 +148,4 @@ N2WS Backup & Recovery インテグレーションには、サービスのチェ [5]: https://github.com/DataDog/integrations-extras/blob/master/n2ws/metadata.csv [6]: https://n2ws.com/support/documentation [7]: https://n2ws.com/support -[8]: https://docs.datadoghq.com/ja/help/ +[8]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/oracle.md b/content/ja/integrations/oracle.md index 33557339c2120..260f59ee10472 100644 --- a/content/ja/integrations/oracle.md +++ b/content/ja/integrations/oracle.md @@ -28,19 +28,19 @@ categories: - data stores - network - oracle -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/oracle/README.md display_on_public_website: true draft: false git_integration_title: oracle integration_id: oracle -integration_title: Oracle +integration_title: Oracle Database integration_version: 5.2.0 is_public: true manifest_version: 2.0.0 name: oracle -public_title: Oracle +public_title: Oracle Database short_description: エンタープライズグリッドコンピューティング向け Oracle リレーショナルデータベースシステム supported_os: - linux @@ -61,7 +61,7 @@ tile: media: [] overview: README.md#Overview support: README.md#Support - title: Oracle + title: Oracle Database --- <!-- SOURCED FROM https://github.com/DataDog/integrations-core --> @@ -135,7 +135,7 @@ Instant Client を使用していない場合は、この手順をスキップ {{% tab "マルチテナント" %}} ##### マルチテナント -###### Create user +###### ユーザーの作成 サーバーに接続するための読み取り専用ログインを作成し、必要な権限を付与します。 @@ -267,19 +267,19 @@ CREATE USER datadog IDENTIFIED BY your_password ; ```SQL grant create session to datadog ; -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SESSION','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$DATABASE','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$CONTAINERS','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQLSTATS','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQL','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$INSTANCE','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQL_PLAN_STATISTICS_ALL','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('DBA_FEATURE_USAGE_STATISTICS','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$PROCESS','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SESSION','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('V_$CON_SYSMETRIC','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('CDB_TABLESPACE_USAGE_METRICS','DATADOG','SELECT',p_grant_option => false); -exec rdsadmin.rdsadmin_util.grant_sys_object('CDB_TABLESPACES','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SESSION','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$DATABASE','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$CONTAINERS','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQLSTATS','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQL','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$INSTANCE','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQL_PLAN_STATISTICS_ALL','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('DBA_FEATURE_USAGE_STATISTICS','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$PROCESS','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SESSION','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('V_$CON_SYSMETRIC','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('CDB_TABLESPACE_USAGE_METRICS','DATADOG','SELECT',p_grant_option => false); +exec rdsadmin.rdsadmin_util.grant_sys_object('CDB_TABLESPACES','DATADOG','SELECT',p_grant_option => false); exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SQLCOMMAND','DATADOG','SELECT',p_grant_option => false); exec rdsadmin.rdsadmin_util.grant_sys_object('V_$DATAFILE','DATADOG','SELECT',p_grant_option => false); exec rdsadmin.rdsadmin_util.grant_sys_object('V_$SGAINFO','DATADOG','SELECT',p_grant_option => false); @@ -444,7 +444,7 @@ TCPS (TCP with SSL) を使って Oracle に接続するには、`protocol` 構 カスタムクエリの指定もサポートされています。各クエリには、次の 2 つのパラメーターを含める必要があります。 | パラメーター | 説明 | -| --------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| --------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | | `query` | 実行する SQL です。簡単なステートメントにすることも、複数行のスクリプトにすることもできます。結果のすべての行が評価されます。 | | `columns` | 列を表すリストです。左から右の順に並べられます。次の 2 つの必須データがあります。<br> a. `type` - 送信方法 (`gauge`、`count` など)。<br> b. name - メトリクス名のサフィックス。これは、完全なメトリクス名を形成するために使用されるサフィックスです。`type` が `tag` の場合、この列は、このクエリによって収集されるすべてのメトリクスに適用されるタグと見なされます。 | @@ -504,4 +504,4 @@ Oracle Database チェックには、イベントは含まれません。 [4]: https://github.com/DataDog/integrations-core/blob/master/oracle/datadog_checks/oracle/data/conf.yaml.example [5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent [6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[7]: https://docs.datadoghq.com/ja/help/ +[7]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/php_fpm.md b/content/ja/integrations/php_fpm.md index 4086a13c02d29..b353d668aea4a 100644 --- a/content/ja/integrations/php_fpm.md +++ b/content/ja/integrations/php_fpm.md @@ -37,7 +37,7 @@ author: support_email: help@datadoghq.com categories: - metrics -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/php_fpm/README.md display_on_public_website: true @@ -227,4 +227,4 @@ PHP-FPM チェックには、イベントは含まれません。 [1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/php_fpm/images/phpfpmoverview.png [2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[4]: https://docs.datadoghq.com/ja/help/ +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/riak.md b/content/ja/integrations/riak.md index 99ba9aea38aa2..b96af774865e6 100644 --- a/content/ja/integrations/riak.md +++ b/content/ja/integrations/riak.md @@ -26,7 +26,7 @@ author: categories: - data stores - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/riak/README.md display_on_public_website: true @@ -201,4 +201,4 @@ Riak チェックには、イベントは含まれません。 [1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/riak/images/riak_graph.png [2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[4]: https://docs.datadoghq.com/ja/help/ +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/squadcast.md b/content/ja/integrations/squadcast.md index c9a01c3e82038..512c5ead728fa 100644 --- a/content/ja/integrations/squadcast.md +++ b/content/ja/integrations/squadcast.md @@ -26,7 +26,7 @@ categories: - インシデント - 問題追跡 - notifications -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/squadcast/README.md display_on_public_website: true @@ -80,7 +80,7 @@ Squadcast を Datadog に接続すると、以下のことができます。 ### Squadcast -Follow these steps in Squadcast: +Squadcast で以下の手順に従います。 1. 上部のチームピッカーで **Team** を選択します。 @@ -173,4 +173,4 @@ Squadcast インテグレーションには、サービスのチェック機能 [1]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/squadcast/images/datadog-webhook.png [2]: https://support.squadcast.com/docs/datadog -[3]: https://docs.datadoghq.com/ja/help/ +[3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/system.md b/content/ja/integrations/system.md index c26779bc8ceb7..adfe55f01f6ea 100644 --- a/content/ja/integrations/system.md +++ b/content/ja/integrations/system.md @@ -5,7 +5,7 @@ aliases: categories: - os & system - configuration & deployment -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/documentation/blob/master/content/en/integrations/system.md description: システムリソース (CPU、メモリ、ディスク、ファイルシステム) の使用状況を追跡。 @@ -24,7 +24,7 @@ supported_os: updated_for_agent: 5.8.5 --- -## Overview +## 概要 ベースシステムから CPU、IO、負荷、メモリ、スワップ、アップタイムなどに関するメトリクスを取得します。以下のチェックもシステムに関連しています。 @@ -146,4 +146,4 @@ System スワップチェックには、サービスのチェック機能は含 [5]: /ja/agent/guide/agent-configuration-files/#agent-configuration-directory [6]: https://github.com/DataDog/integrations-core/blob/master/system_core/datadog_checks/system_core/data/conf.yaml.example [7]: /ja/agent/guide/agent-commands/#start-stop-restart-the-agent -[8]: https://github.com/DataDog/integrations-core/blob/master/system_swap/datadog_checks/system_swap/data/conf.yaml.example +[8]: https://github.com/DataDog/integrations-core/blob/master/system_swap/datadog_checks/system_swap/data/conf.yaml.example \ No newline at end of file diff --git a/content/ja/integrations/twistlock.md b/content/ja/integrations/twistlock.md index b12f497ce8df8..7b25a8dd80faf 100644 --- a/content/ja/integrations/twistlock.md +++ b/content/ja/integrations/twistlock.md @@ -29,7 +29,7 @@ categories: - ログの収集 - ネットワーク - セキュリティ -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/twistlock/README.md display_on_public_website: true @@ -106,7 +106,7 @@ Prisma Cloud Compute Edition チェックは [Datadog Agent][2] パッケージ ##### メトリクスの収集 -| Parameter | 値 | +| パラメーター | 値 | | -------------------- | ----------------------------------------------------------------------------------- | | `<INTEGRATION_NAME>` | `twistlock` | | `<INIT_CONFIG>` | 空白または `{}` | @@ -234,4 +234,4 @@ Prisma Cloud Compute Edition は、新しい CVE が見つかると、イベン [1]: https://www.paloaltonetworks.com/prisma/cloud [2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[4]: https://docs.datadoghq.com/ja/help/ +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/logs/guide/access-your-log-data-programmatically.md b/content/ja/logs/guide/access-your-log-data-programmatically.md index 6baf34e80cf2e..2d01d82ba2669 100644 --- a/content/ja/logs/guide/access-your-log-data-programmatically.md +++ b/content/ja/logs/guide/access-your-log-data-programmatically.md @@ -33,7 +33,7 @@ title: ログ検索 API を使用してログデータにプログラマティ ## 例 -### Basic search +### 基本検索 特定の期間内のすべてのログイベントを取得するには、以下の[検索構文][5]を使用して API コールを完了します。 @@ -460,7 +460,7 @@ curl -L -X POST "https://api.{{< region-param key="dd_site" code="true" >}}/api/ `data` パラメーターは Log オブジェクトの配列であり、最大でクエリの `limit` パラメーターで定義された数のログが含まれます。このパラメーターはデフォルトで `50` ですが、最大 `1000` に設定できます。 -To see the next page of your logs, resend the query with the `cursor` parameter that takes the `after` value from the previous call. +ログの次のページを閲覧するには、前の呼び出しから `after` を取得する `cursor` パラメーターでクエリを再送信します。 上記の JSON 例から、`after` の値 `eyJhZnRlciI6IkFRQUFBWFVBWFZOU3Z1TXZXd0FBQUFCQldGVkJXRlpPVTJJMlpXY3hYM2MyTFZWQlFRIiwidmFsdWVzIjpbIjUwMCJdfQ` を使用して次の 2 つの結果を取得します。 diff --git a/content/ja/logs/guide/getting-started-lwl.md b/content/ja/logs/guide/getting-started-lwl.md index b48801fc41e3a..f85bc62f5b344 100644 --- a/content/ja/logs/guide/getting-started-lwl.md +++ b/content/ja/logs/guide/getting-started-lwl.md @@ -24,7 +24,7 @@ title: Logging Without Limits™ ガイド クラウドベースのアプリケーションは、毎分数百万というペースでログを生成できますが。すべてのログに価値があるわけではなく、またその重要度もマチマチです。そこで、Datadog の [Logging without Limits™][1] は、[ログの取り込みとインデックス化][2]を切り離すことで柔軟に対応します。 -This guide identifies key components of Logging Without LimitsTM such as [Patterns](#2-identify-high-volume-logging-patterns), [Exclusion Filters](#3-create-a-log-pattern-exclusion-filter), [Custom log-based metrics](#4-generate-metrics-to-track-excluded-logs), and [Monitors](#create-an-anomaly-detection-monitor) that can help you better organize Log Explorer and monitor your KPIs over time. +このガイドでは、ログエクスポローラーを構造化し KPI をモニターするのに役立つ、Logging Without Limits™ の主要な機能、 [パターン](#2-大量のログパターンを識別)、[除外フィルター](#3-除外フィルターログパターンを作成)、[ログベースのカスタムメトリクス](#4-除外されたログを追跡するメトリクスを作成)、 [モニター](#異常検知モニターを作成)を紹介します。 ## 1. 最多ログのサービスステータスを特定 @@ -55,7 +55,7 @@ This guide identifies key components of Logging Without LimitsTM such as [Patter パターンビューは、ノイズの多いパターンを特定しフィルタリングする際に役立ちます。パターンに一致するログ数を、サービスとステータスに分けて表示します。一番上のパターンをクリックすると、ステータスに関連するイベントの詳細なログが表示されます。コンテキストパネルには、最もノイズの多いステータスパターンに関する情報が表示されます。 -## 3. Create a log pattern exclusion filter +## 3. 除外フィルターログパターンを作成 パターンのコンテキストパネルには、ログパターンのすべてのインスタンス(イベント)が一覧表示され、選択したパターンに基づいたカスタム検索クエリが作成されます。除外フィルターでこのクエリを使用して、インデックスからこれらのログを削除します。 @@ -118,7 +118,7 @@ This guide identifies key components of Logging Without LimitsTM such as [Patter Logging Without Limits™ の詳細やログエクスポローラー、Live Tail、ログパターンの活用方法については、以下のリンクをご覧ください。 -## Further Reading +## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/logs/guide/log-parsing-best-practice.md b/content/ja/logs/guide/log-parsing-best-practice.md index d75441f223f62..5d527004e6213 100644 --- a/content/ja/logs/guide/log-parsing-best-practice.md +++ b/content/ja/logs/guide/log-parsing-best-practice.md @@ -46,7 +46,7 @@ Datadog では、ログからすべての関連情報を抽出するためのパ ほとんどの規則は、この 4 つのマッチャーを使用して記述できます。すべてのマッチャーのリストは[パースのドキュメント][2]で確認できます。 -4. **KeyValue**: +4. **KeyValue**。 key-value フィルターを使用すると、すべての属性を自動的に抽出できます。 詳細については、[いくつかの例][3]を参照してください。 diff --git a/content/ja/logs/log_collection/csharp.md b/content/ja/logs/log_collection/csharp.md index 17b005ea3bde3..f9803f4753d5f 100644 --- a/content/ja/logs/log_collection/csharp.md +++ b/content/ja/logs/log_collection/csharp.md @@ -26,6 +26,9 @@ further_reading: - link: /glossary/#tail tag: 用語集 text: 用語集 "テール" の項目 +- link: https://github.com/DataDog/serilog-sinks-datadog-logs/ + tag: GitHub パッケージ + text: Serilog.Sinks.Datadog.Logs パッケージ title: C# ログ収集 --- @@ -37,11 +40,11 @@ C# のログを Datadog に送信するには、次のいずれかの方法を ## Datadog Agent によるファイルテールロギング -The recommended approach for C# log collection is to output your logs to a file and then [tail][20] that file with your Datadog Agent. This enables the Datadog Agent to enrich the logs with additional metadata. +C# ログ収集の推奨アプローチは、ログをファイルに出力し、そのファイルを Datadog Agent で[テール][20]監視することです。これにより、Datadog Agent が追加のメタデータでログを強化することができます。 Datadog は、[カスタムパース規則][1]の使用を避け、ログを JSON 形式で生成するようにロギングライブラリをセットアップすることを強くお勧めします。 -File-tail logging supports the following frameworks: +ファイルテールロギングは、以下のフレームワークをサポートしています。 - Serilog - NLog - log4net @@ -459,9 +462,12 @@ Tracer バージョン 2.7.0 からエージェントレスロギングを使用 ## Serilog シンクによるエージェントレスロギング +<div class="alert alert-info">バージョン <code>0.2.0</code> 以降、<a href="https://github.com/serilog/serilog-settings-configuration"><code>Serilog.Setting.Configuration</code></a> パッケージを使用して、<code>appsettings.json</code> ファイルで Datadog シンクを構成できます。 +詳細は、<a href="https://github.com/DataDog/serilog-sinks-datadog-logs/tree/master?tab=readme-ov-file#serilogsinksdatadoglogs">`Serilog.Sinks.Datadog.Logs`</a> パッケージを参照してください。</div> + もし、ファイルテールロギングや APM エージェントレスロギングを使用することができず、`Serilog` フレームワークを使用している場合は、Datadog [Serilog シンク][19]を使用して直接 Datadog にログを送信することが可能です。 -Datadog [Serilog シンク][19]をアプリケーションにインストールします。このシンクは、イベントとログを Datadog に送信し、デフォルトではポート 443 の HTTPS 経由でログを転送します。 +[Datadog Serilog シンク][19]をアプリケーションにインストールします。このシンクは、イベントとログを Datadog に送信し、デフォルトではポート 443 の HTTPS 経由でログを転送します。 パッケージマネージャーコンソールで、次のコマンドを実行してください。 ```text @@ -470,84 +476,15 @@ PM> Install-Package Serilog.Sinks.Datadog.Logs 次に、アプリケーションでロガーを直接初期化します。必ず[ご使用の `<API_KEY>`][15] を追加してください。 -{{< site-region region="us" >}} - -```csharp -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "https://http-intake.logs.datadoghq.com" }) - .CreateLogger()) -{ - // コード -} -``` - -{{< /site-region >}} - -{{< site-region region="us3" >}} - -```csharp -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "https://http-intake.logs.us3.datadoghq.com" }) - .CreateLogger()) -{ - // コード -} -``` - -{{< /site-region >}} - -{{< site-region region="ap1" >}} - -```csharp -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "https://http-intake.logs.ap1.datadoghq.com" }) - .CreateLogger()) -{ - // コード -} -``` - -{{< /site-region >}} - -{{< site-region region="us5" >}} - ```csharp using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "https://http-intake.logs.us5.datadoghq.com" }) + .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "{{< region-param key="http_endpoint" code="true" >}}" }) .CreateLogger()) { // コード } ``` -{{< /site-region >}} - -{{< site-region region="eu" >}} - -```csharp -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "https://http-intake.logs.datadoghq.eu" }) - .CreateLogger()) -{ - // コード -} -``` - -{{< /site-region >}} - -{{< site-region region="gov" >}} - -```csharp -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs("<API_KEY>", configuration: new DatadogConfiguration(){ Url = "https://http-intake.logs.ddog-gov.com" }) - .CreateLogger()) -{ - // コード -} -``` - -{{< /site-region >}} - {{< site-region region="us" >}} デフォルトの動作を上書きして、ログを TCP で転送することもできます。それには、必須プロパティ `url`、`port`、`useSSL`、および `useTCP` を手動で指定します。また、オプションで、[`source`、`service`、`host`、およびカスタムタグを指定][1]できます。 @@ -602,33 +539,6 @@ using (var log = new LoggerConfiguration() これで、新しいログが Datadog に直接送信されるようになります。 -または、`0.2.0` 以降、`Serilog.Setting.Configuration` パッケージで `appsettings.json` ファイルを使用して Datadog シンクを構成できます。 - -`Serilog.WriteTo` 配列で、`DatadogLogs` のエントリを追加します。以下に例を示します。 - -```json -"Serilog": { - "Using": [ "Serilog.Sinks.Console", "Serilog.Sinks.Datadog.Logs" ], - "MinimumLevel": "Debug", - "WriteTo": [ - { "Name": "Console" }, - { - "Name": "DatadogLogs", - "Args": { - "apiKey": "<API_キー>", - "source": "<ソース名>", - "host": "<ホスト名>", - "tags": ["<タグ_1>:<値_1>", "<タグ_2>:<値_2>"], - } - } - ], - "Enrich": [ "FromLogContext", "WithMachineName", "WithThreadId" ], - "Properties": { - "Application": "Sample" - } -} -``` - ## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/logs/log_collection/javascript.md b/content/ja/logs/log_collection/javascript.md index 4a6ad432d3ffc..90cc7ce556ec3 100644 --- a/content/ja/logs/log_collection/javascript.md +++ b/content/ja/logs/log_collection/javascript.md @@ -337,7 +337,7 @@ window.DD_LOGS.init({ }) ``` -## コンフィギュレーション +## 構成 ### Content Security Policy インテグレーション @@ -354,27 +354,28 @@ window.DD_LOGS.init({ | `service` | 文字列 | いいえ | | アプリケーションのサービス名。[タグの構文要件][7]に従っている必要があります。 | | `env` | 文字列 | いいえ | | アプリケーションの環境 (例: prod、pre-prod、staging など)。[タグの構文要件][7]に従っている必要があります。 | | `version` | 文字列 | いいえ | | アプリケーションのバージョン。例: 1.2.3、6c44da20、2020.02.13 など。[タグの構文要件][7]に従っている必要があります。 | -| `forwardErrorsToLogs` | ブール値 | いいえ | `true` | `false` に設定すると、console.error ログ、キャッチされない例外、ネットワークエラーは Datadog へ送信されません。 | +| `forwardErrorsToLogs` | Boolean | いいえ | `true` | `false` に設定すると、console.error ログ、キャッチされない例外、ネットワークエラーは Datadog へ送信されません。 | | `forwardConsoleLogs` | `"all"` または `"log"` `"debug"` `"info"` `"warn"` `"error"` の配列 | いいえ | `[]` | `console.*` のログを Datadog に転送します。全てを転送する場合は `"all"` を、サブセットのみを転送する場合はコンソール API 名の配列を使用します。 | | `forwardReports` | `"all"` または `"intervention"` `"deprecation"` `"csp_violation"` の配列 | いいえ | `[]` | [Reporting API][8] から Datadog にレポートを転送します。すべてを転送する場合は `"all"` を、サブセットのみを転送する場合はレポートタイプの配列を使用します。 | | `sampleRate` | 数値 | いいえ | `100` | **非推奨** - `sessionSampleRate` を参照してください。 | | `sessionSampleRate` | 数値 | いいえ | `100` | 追跡するセッションの割合。`100` は全てを、`0` は皆無を意味します。追跡されたセッションのみがログを送信します。 | | `trackingConsent` | `"granted"` または `"not-granted"` | いいえ | `"granted"` | ユーザー追跡同意の初期状態を設定します。[ユーザー追跡に関する同意][15]を参照してください。 | -| `silentMultipleInit` | ブール値 | いいえ | | 複数の init を使用しながらログエラーを防ぎます。 | +| `silentMultipleInit` | Boolean | いいえ | | 複数の init を使用しながらログエラーを防ぎます。 | | `proxy` | 文字列 | いいえ | | オプションのプロキシ URL (例: https://www.proxy.com/path)。詳細については、完全な[プロキシ設定ガイド][6]を参照してください。 | | `telemetrySampleRate` | 数値 | いいえ | `20` | SDK の実行に関するテレメトリーデータ (エラー、デバッグログ) は、潜在的な問題を検出して解決するために、Datadog に送信されます。このオプションを `0` に設定すると、テレメトリー収集がオプトアウトされます。 | -| `storeContextsAcrossPages` | ブール値 | いいえ | | グローバルコンテキストとユーザーコンテキストを `localStorage` に格納して、ユーザーナビゲーションに沿って保存します。詳細と具体的な制限については[コンテキストのライフサイクル][11]を参照してください。 | -| `allowUntrustedEvents` | ブール値 | いいえ | | 例えば、自動化された UI テストでの[信頼できないイベント][13]のキャプチャを許可します。 | +| `storeContextsAcrossPages` | Boolean | いいえ | | グローバルコンテキストとユーザーコンテキストを `localStorage` に格納して、ユーザーナビゲーションに沿って保存します。詳細と具体的な制限については[コンテキストのライフサイクル][11]を参照してください。 | +| `allowUntrustedEvents` | Boolean | いいえ | | [信頼できないイベント][13] ( 例えば自動 UI テストなど) のキャプチャを許可します。 | +| `sendLogsAfterSessionExpiration` | Boolean | いいえ | | セッションが期限切れになった後もログの送信を続けます。 `RUM` SDK を使用するときに一致するコンフィギュレーションが必要なオプション: | パラメーター | タイプ | 必須 | デフォルト | 説明 | |----------------------------------------| ------- | -------- | ------- |--------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `trackSessionAcrossSubdomains` | ブール値 | いいえ | `false` | 同じサイトのサブドメイン間でセッションを保持します。 | -| `useSecureSessionCookie` | ブール値 | いいえ | `false` | 安全なセッション Cookie を使用します。これにより、安全でない (非 HTTPS) 接続で送信されるログが無効になります。 | -| `usePartitionedCrossSiteSessionCookie` | ブール値 | いいえ | `false` | 分割された安全なクロスサイトセッション Cookie を使用します。これにより、サイトが別のサイトから読み込まれたときに、logs SDK を実行できます (iframe)。`useSecureSessionCookie` を意味します。 | -| `useCrossSiteSessionCookie` | ブール値 | いいえ | `false` | **非推奨**、`usePartitionedCrossSiteSessionCookie` を参照してください。 | +| `trackSessionAcrossSubdomains` | Boolean | いいえ | `false` | 同じサイトのサブドメイン間でセッションを保持します。 | +| `useSecureSessionCookie` | Boolean | いいえ | `false` | 安全なセッション Cookie を使用します。これにより、安全でない (HTTPS 以外の) 接続で送信されるログが無効になります。 | +| `usePartitionedCrossSiteSessionCookie` | Boolean | いいえ | `false` | 分割された安全なクロスサイトセッション Cookie を使用します。これにより、サイトが別のサイト (iframe) から読み込まれたときにも、logs SDK が実行されます。`useSecureSessionCookie` を意味します。 | +| `useCrossSiteSessionCookie` | Boolean | いいえ | `false` | **非推奨**: `usePartitionedCrossSiteSessionCookie` を参照してください。 | ## 使用方法 @@ -402,7 +403,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 #### CDN 同期 @@ -489,7 +490,7 @@ try { } ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 #### CDN 同期 @@ -553,7 +554,7 @@ window.DD_LOGS.onReady(function() { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 #### CDN 同期 @@ -572,13 +573,13 @@ window.DD_LOGS && window.DD_LOGS.logger.log(<MESSAGE>,<JSON_ATTRIBUTES>,<STATUS> | `<MESSAGE>` | Datadog によって完全にインデックス化されたログメッセージ。 | | `<JSON_ATTRIBUTES>` | `<MESSAGE>` に付随するすべての属性を含む有効な JSON オブジェクト。 | | `<STATUS>` | ログのステータス。使用できるステータス値は、`debug`、`info`、`warn`、`error`。 | -| `<ERROR>` | [JavaScript Error][10] オブジェクトの一例。 | +| `<ERROR>` | [JavaScript Error][10] オブジェクトのインスタンス。 | ## 高度な使用方法 -### Browser ログから機密データを取り除く +### ブラウザログの機密データのスクラビング -Browser ログに編集が必要な機密情報が含まれている場合は、Browser Log Collector を初期化するときに `beforeSend` コールバックを使用して、機密シーケンスを取り除くように Browser SDK を構成します。 +ブラウザログに編集が必要な機密情報が含まれている場合は、ブラウザログコレクターを初期化するときに `beforeSend` コールバックを使用して、機密シーケンスをスクラブするように Browser SDK を構成します。 `beforeSend` コールバック関数を使用すると、Datadog に送信される前に Browser SDK によって収集された各ログにアクセスでき、プロパティを更新できます。 @@ -592,7 +593,7 @@ import { datadogLogs } from '@datadog/browser-logs' datadogLogs.init({ ..., beforeSend: (log) => { - // ビューの URL からメールアドレスを削除します + // ビューの URL からメールを削除します log.view.url = log.view.url.replace(/email=[^&]*/, "email=REDACTED") }, ... @@ -606,7 +607,7 @@ window.DD_LOGS.onReady(function() { window.DD_LOGS.init({ ..., beforeSend: (log) => { - // ビューの URL からメールアドレスを削除します + // ビューの URL からメールを削除します log.view.url = log.view.url.replace(/email=[^&]*/, "email=REDACTED") }, ... @@ -621,7 +622,7 @@ window.DD_LOGS && window.DD_LOGS.init({ ..., beforeSend: (log) => { - // ビューの URL からメールアドレスを削除します + // ビューの URL からメールを削除します log.view.url = log.view.url.replace(/email=[^&]*/, "email=REDACTED") }, ... @@ -633,7 +634,7 @@ window.DD_LOGS && | 属性 | タイプ | 説明 | | --------------- | ------ | ------------------------------------------------------------------------------------------------ | | `view.url` | 文字列 | アクティブな Web ページの URL。 | -| `view.referrer` | 文字列 | 現在リクエストされているページにリンクされた前のウェブページの URL。 | +| `view.referrer` | 文字列 | 現在リクエストされているページへのリンクがたどられた前のウェブページの URL。 | | `message` | 文字列 | ログの内容。 | | `error.stack` | 文字列 | スタックトレースまたはエラーに関する補足情報。 | | `http.url` | 文字列 | HTTP URL。 | @@ -642,7 +643,7 @@ window.DD_LOGS && `beforeSend` コールバック関数を使用すると、Datadog に送信される前にログを破棄することもできます。 -ステータスが 404 であるネットワークエラーを破棄するには +ステータスが 404 のネットワークエラーを破棄するには、以下を行います。 #### NPM @@ -766,7 +767,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 ##### CDN 同期 @@ -868,7 +869,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 ##### CDN 同期 @@ -897,12 +898,12 @@ window.DD_LOGS && window.DD_LOGS.getGlobalContext() // => {} Datadog ログ SDK は、生成されたログに `User` を関連付けるための便利な関数を提供します。 - `setUser (newUser: User)` API を使用して、すべてのロガーのユーザーを設定します。 -- `setUserProperty (key: string, value: any)` API を使用して、すべてのロガーのユーザープロパティを追加または変更します。 +- API の `setUserProperty (キー: 文字列、値: 任意)` を使用して、すべてのロガーにユーザープロパティを追加または変更します。 - `getUser ()` API を使用して、現在保存されているユーザーを取得します。 - `removeUserProperty (key: string)` API を使用して、ユーザープロパティを削除します。 - `clearUser ()` API を使用して、既存のユーザープロパティをすべてクリアします。 -**注**: ユーザーコンテキストは、グローバルコンテキストの前に適用されます。したがって、グローバルコンテキストに含まれるすべてのユーザープロパティは、ログを生成するときにユーザーコンテキストをオーバーライドします。 +**注**: ユーザーコンテキストはグローバルコンテキストより先に適用されます。そのため、グローバルコンテキストに含まれるすべてのユーザープロパティは、ログ生成時にユーザーコンテキストをオーバーライドします。 ##### NPM @@ -956,7 +957,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 ##### CDN 同期 @@ -998,14 +999,14 @@ window.DD_LOGS && window.DD_LOGS.getUser() // => {} - `localStorage` に格納されたデータはユーザーセッションを超えて残るため、これらのコンテキストで個人を特定できる情報 (PII) を設定することは推奨されません - この機能は `trackSessionAcrossSubdomains` オプションと互換性がありません。なぜなら `localStorage` データは同じオリジン間でしか共有されないからです (login.site.com ≠ app.site.com) -- `localStorage` はオリジンごとに 5 MiB に制限されているため、アプリケーション固有のデータ、Datadog コンテキスト、および `localStorage` に格納されているその他のサードパーティデータは、問題を回避するためにこの制限内に収める必要があります。 +- `localStorage` はオリジンごとに 5 MiB に制限されているため、`localStorage` に格納されているアプリケーション固有のデータ、 Datadog コンテキスト、およびその他のサードパーティデータは、問題を避けるためにこの制限内に収める必要があります #### ロガーのコンテキスト ロガーを作成すると、以下のことができます。 - `setContext (context: object)` API を使用して、ロガーのコンテキスト全体を設定します。 -- `setContextProperty (key: string, value: any)` API を使用して、ロガーにコンテキストプロパティを設定します。 +- API の `setContextProperty (キー: 文字列、値: 任意)` を使用して、ロガーにコンテキストプロパティを設定します。 ##### NPM @@ -1033,7 +1034,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 ##### CDN 同期 @@ -1077,7 +1078,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 #### CDN 同期 @@ -1093,7 +1094,7 @@ window.DD_LOGS && window.DD_LOGS.logger.setLevel('<LEVEL>') デフォルトでは、Datadog ブラウザログ SDK が作成したロガーは、ログを Datadog に送信します。Datadog ブラウザログ SDK が初期化されると、ロガーを構成して以下のようにすることもできます。 -- `console` と Datadog (`http`) にログを送信する +- ログを `console` および Datadog (`http`)に送信します - `console` にのみログを送信する - ログをまったく送信しない (`silent`) @@ -1123,7 +1124,7 @@ window.DD_LOGS.onReady(function () { }) ``` -**注**: 初期の API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 +**注**: 始めの API 呼び出しは `window.DD_LOGS.onReady()` コールバックにラップされている必要があります。こうすることで、SDK が適切に読み込まれたときにのみコードが実行されるようにできます。 #### CDN 同期 @@ -1243,7 +1244,7 @@ CDN 同期の場合は以下を使用します。 window.DD_LOGS && window.DD_LOGS.getInternalContext() // { session_id: "xxxx-xxxx-xxxx-xxxx" } ``` -<!-- 注: URL はすべて絶対でなければなりません --> +<!-- 注: すべての URL は絶対 URL である必要があります --> [1]: https://docs.datadoghq.com/ja/account_management/api-app-keys/#api-keys [2]: https://docs.datadoghq.com/ja/account_management/api-app-keys/#client-tokens @@ -1259,4 +1260,4 @@ window.DD_LOGS && window.DD_LOGS.getInternalContext() // { session_id: "xxxx-xxx [12]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage [13]: https://developer.mozilla.org/en-US/docs/Web/API/Event/isTrusted [14]: /ja/integrations/content_security_policy_logs/#use-csp-with-real-user-monitoring-and-session-replay -[15]: #user-tracking-consent +[15]: #user-tracking-consent \ No newline at end of file diff --git a/content/ja/monitors/guide/create-cluster-alert.md b/content/ja/monitors/guide/create-cluster-alert.md index 5ea456f2ca813..1ffac5bd74c08 100644 --- a/content/ja/monitors/guide/create-cluster-alert.md +++ b/content/ja/monitors/guide/create-cluster-alert.md @@ -30,6 +30,6 @@ title: クラスターアラートを作成し、グループの何割かが重 このモニターは、過去 10 分以内に CPU 使用率が 50% を超えたホストの割合を追跡し、それらのホストの 40% 以上が指定された条件を満たした場合に通知を生成します。 -{{< img src="monitors/faq/cluster-status.png" alt="cluster-alert-status" >}} +## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ja/network_monitoring/devices/_index.md b/content/ja/network_monitoring/devices/_index.md index 3b11eae336168..57756fef2a20b 100644 --- a/content/ja/network_monitoring/devices/_index.md +++ b/content/ja/network_monitoring/devices/_index.md @@ -33,257 +33,17 @@ title: ネットワークデバイスモニタリング <br/> -Network Device Monitoring は、ルーター、スイッチ、ファイアウォールなどのオンプレミスおよび仮想ネットワークデバイスの可視化を提供します。任意のネットワーク上のデバイスを自動的に検出し、帯域幅使用率、送信されたバイト数、デバイスの稼働/停止状況などのメトリクスを収集し始めます。 - -## はじめに - -1. Datadog Agent をインストールします (通常、監視対象デバイスではないサーバーにインストールします)。 -2. [個々のデバイスの監視][1]または[デバイスのオートディスカバリー][2]のいずれかで、SNMP インテグレーションを構成します。 -3. Add additional enrichments to your devices by adding network device tagging through the [Service Now integration][225], and programmatically add tags to network devices with the [Network Device Monitoring API][226]. -4. [ネットワークデバイス][3]ページで、ネットワークインフラストラクチャー全体の監視を開始します。 -5. Datadog のすぐに使えるダッシュボードで収集されたメトリクスを表示します。 - - [監視対象のデバイス一覧][4] - - [すべてのインターフェイスのパフォーマンス全体][5] -6. [SNMP メトリクス][6]の積極的な監視で問題が発生する前に把握します。 -7. オプションとして、Datadog アプリ内で直接[デバイスプロファイル][224]を作成することにより、特定のメトリクスとタグを収集するように Agent を構成します。 - -## サポートされるデバイス - -### 一般的なプロファイル - -一般的なプロファイルはベンダープロファイルでサポートされないデバイスのメトリクスを収集します。メトリクスには、TCP、UDP、IP の他、帯域幅使用率や送受信量などのインターフェイスメトリクスが含まれます。 - -### SD-WAN - -Datadog は、特定のベンダー向けに SD-WAN (Software-Defined Wide Area Network) モニタリングを提供しています。SD-WAN は、SDN (Software-Defined Networking) の原則を使用して、広域ネットワーク (WAN) のパフォーマンスを管理・最適化するネットワーキング技術の一種です。主に、異なるトランスポート (MPLS、ブロードバンド、5G など) 間でリモートオフィスやデータセンターを相互接続するために使用されます。SD-WAN の利点は、これらのトランスポート間での自動負荷分散と障害検出です。 - -Datadog は、SD-WAN ネットワークモニタリングのために以下のベンダーをサポートしています。 - -- [Meraki SD-WAN][7] (公開ベータ版) -- [Cisco SD-WAN][223] (公開ベータ版) - -### ベンダープロファイル - -以下のベンダーのデバイスは、専用のプロファイルでサポートされます。特定のベンダーやデバイスタイプがサポートされているが、特定のモデルがサポートされていない場合は、 - - 自分自身で YAML プロファイルをカスタマイズできます (詳細は [NDM トラブルシューティング FAQ ページ][8] を参照)。 - - 新しい[プロファイル][9]を作成して、新しいデバイスモデルの監視を開始できます。 - -| ベンダー | コンフィギュレーションファイル | -| --- | ----------- | -| 3com | [3com.yaml][10] <br> | -| TP-Link | [tp-link.yaml][11] <br> | -| A10 | [a10.yaml][12] <br> | -| Alcatel-lucent | [alcatel-lucent.yaml][13] <br> | -| Anue | [anue.yaml][14] <br> | -| Apc | [_apc.yaml][15] <br>[apc_ups.yaml][16] <br> | -| [Arista][17] | [arista.yaml][18] <br>[_arista.yaml][19] <br> | -| [Aruba][20] | [aruba-switch.yaml][21] <br>[_aruba-base.yaml][22] <br>[aruba-access-point.yaml][23] <br>[aruba.yaml][24] <br> | -| Audiocodes | [audiocodes-mediant-sbc.yaml][25] <br> | -| Avaya | [avaya.yaml][26] <br> | -| Avocent | [avocent-acs.yaml][27] <br> | -| Avtech | [avtech.yaml][28] <br> | -| [Barracuda][200] | [barracuda.yaml][29]<br> | -| Bluecat | [bluecat-server.yaml][30] <br> | -| Brocade | [brocade.yaml][31] <br> | -| Brother | [brother.yaml][32] <br> | -| [Chatsworth][201] | [chatsworth_pdu.yaml][33] <br> | -| チェックポイント | [checkpoint.yaml][34] <br>[checkpoint-firewall.yaml][35] <br> | -| Chrysalis | [chrysalis.yaml][36] <br> | -| [Cisco][202] </br> [Cisco ACI][203] </br> [Cisco ASA][204] </br> Cisco ASR </br> Cisco Catalyst </br> Cisco ICM </br> [Cisco ISE][205] </br> Cisco ISR </br> Cisco Nexus </br> Cisco SB </br> Cisco UCS </br> Cisco WLC | [cisco-3850.yaml][37]</br> [cisco-asa.yaml][38] </br>[cisco-asa-5525.yaml][39] </br>[cisco-asr.yaml][40] </br>[cisco-catalyst-wlc.yaml][41] </br>[cisco-catalyst.yaml][42] </br>[cisco-csr1000v.yaml][43] </br>[cisco_icm.yaml][44] </br>[cisco-ise.yaml][45] </br>[cisco-isr.yaml][46] </br>[cisco_isr_4431.yaml][47] </br>[cisco-nexus.yaml][48] </br>[cisco-sb.yaml][49] </br>[cisco-ucs.yaml][50] </br>[_cisco-metadata.yaml][51] </br>[_cisco-wlc.yaml][52] </br>[cisco-legacy-wlc.yaml][53] </br>[cisco_uc_virtual_machine.yaml][54] | -| Citrix | [citrix.yaml][55] <br> | -| Cradlepoint | [cradlepoint.yaml][56] <br> | -| Cyberpower | [cyberpower-pdu.yaml][57] <br> | -| [Dell][206] | [dell-poweredge.yaml][58] <br>[_dell.yaml][59] <br>[idrac.yaml][60] <br>[isilon.yaml][61] <br> | -| Dialogic | [dialogic-media-gateway.yaml][62] <br> | -| Dlink | [dlink.yaml][63] <br> | -| Eaton | [eaton-epdu.yaml][64] <br> | -| Exagrid | [exagrid.yaml][65] <br> | -| Extreme Networks | [extreme-switching.yaml][66] <br> | -| [F5][207] | [f5-big-ip.yaml][67] <br> | -| Fireeye | [fireeye.yaml][68] <br> | -| [Fortinet][208] | [fortinet.yaml][70] <br>[fortinet-fortigate.yaml][71] <br> | -| Gigamon | [gigamon.yaml][72] <br> | -| [HP][209] | [hp-ilo4.yaml][73] <br>[_hp.yaml][74] <br>[hpe-proliant.yaml][75] <br> | -| Huawei | [_huawei.yaml][76] <br> | -| iXsystems | [ixsystems-truenas.yaml][77] <br> | -| IBM | [ibm.yaml][78] <br> | -| Infinera | [infinera-coriant-groove.yaml][79] <br> | -| [Infoblox][213] | [infoblox-ipam.yaml][80] <br> | -| [Juniper Networks][210] | [_juniper.yaml][81] <br>[juniper-ex.yaml][82] <br>[_juniper-junos-generic.yaml][83] <br>[juniper-mx.yaml][84] -| Linksys | [linksys.yaml][87] <br> | -| McAfee | [mcafee-web-gateway.yaml][88] <br> | -| [Meraki][7] | [meraki-cloud-controller.yaml][89] <br>[meraki.yaml][90] <br> | -| Mikrotik | [mikrotik-router.yaml][91] <br> | -| Nasuni | [nasuni-filer.yaml][92] <br> | -| NEC | [nec-univerge.yaml][93] <br> | -| NetApp | [netapp.yaml][94] <br> | -| Netgear | [netgear.yaml][95] <br> | -| Nvidia | [nvidia.yaml][96] <br> | -| Omron | [omron-cj-ethernet-ip.yaml][97] <br> | -| Opengear | [_opengear.yaml][98] <br> | -| [Palo Alto Networks][222] | [palo-alto.yaml][100] <br>[_palo-alto.yaml][101] <br> | -| Peplink | [peplink.yaml][102] <br> | -| [pfSense][212] | [pf-sense.yaml][103] <br> | -| Raritan | [raritan-dominion.yaml][104] <br> | -| Riverbed | [riverbed.yaml][105] <br> | -| Ruckus | [ruckus.yaml][106] <br> | -| Server Iron | [server-iron-switch.yaml][107] <br> | -| Servertech | [servertech.yaml][108] <br> | -| Silverpeak | [silverpeak-edgeconnect.yaml][109] <br> | -| Sinetica | [sinetica-eagle-i.yaml][110] <br> | -| Sophos | [sophos-xgs-firewall.yaml][111] <br> | -| Synology | [synology-disk-station.yaml][112] <br> | -| Tripplite | [tripplite.yaml][113] <br> | -| Ubiquiti | [_ubiquiti.yaml][114] <br> | -| Velocloud | [velocloud-edge.yaml][115] <br> | -| Vertiv | [_vertiv.yaml][116] <br> | -| VMware | [vmware-esx.yaml][117] <br> | -| Watchguard | [watchguard.yaml][118] <br> | -| Western Digital | [western-digital-mycloud-ex2-ultra.yaml][119] <br> | -| Zebra | [zebra-printer.yaml][120] <br> | -| Zyxel | [zyxel-switch.yaml][121] <br> | +Network Device Monitoring (NDM) は、ルーター、スイッチ、ファイアウォールなどのオンプレミスおよび仮想ネットワークデバイスの可視化を提供します。任意のネットワーク上のデバイスを自動的に検出し、帯域幅使用率、送信されたバイト数などのメトリクスを収集し、デバイスが稼働中か停止中かを判断します。 +{{< whatsnext desc="このセクションには以下のトピックが含まれています。">}} + {{< nextlink href="network_monitoring/devices/getting_started" >}}<u>はじめに</u>: Network Device Monitoring の導入{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/supported_devices" >}}<u>サポートされているデバイス</u>: サポートされている NDM デバイスの確認{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/snmp_metrics?tab=snmpv2" >}}<u>SNMP メトリクス</u>: ネットワークデバイスから SNMP メトリクスを収集{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/device_topology_map" >}}<u>デバイストポロジーマップ</u>: ネットワークの物理接続を確認{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/guide/device_profiles/" >}}<u>デバイスオンボーディング体験</u>: デバイスプロファイルの導入{{< /nextlink >}} +{{< /whatsnext >}} ## その他の参考資料 -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/network_monitoring/devices/snmp_metrics/#monitoring-individual-devices -[2]: /ja/network_monitoring/devices/snmp_metrics/#autodiscovery -[3]: https://app.datadoghq.com/devices -[4]: https://app.datadoghq.com/dash/integration/30409/datacenter-overview -[5]: https://app.datadoghq.com/dash/integration/30417/interface-performance -[6]: /ja/monitors/types/metric/ -[7]: /ja/integrations/meraki/ -[8]: /ja/network_monitoring/devices/troubleshooting#what-do-i-do-if-datadog-supports-a-vendor-or-device-type-but-my-specific-model-isnt-supported -[9]: /ja/network_monitoring/devices/profiles/ -[10]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/3com.yaml -[11]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/tp-link.yaml -[12]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/a10.yaml -[13]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/alcatel-lucent.yaml -[14]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/anue.yaml -[15]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_apc.yaml -[16]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/apc_ups.yaml -[17]: https://docs.datadoghq.com/ja/integrations/snmp_arista/ -[18]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/arista.yaml -[19]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_arista.yaml -[20]: https://docs.datadoghq.com/ja/integrations/snmp_aruba/ -[21]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/aruba-switch.yaml -[22]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_aruba-base.yaml -[23]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/aruba-access-point.yaml -[24]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/aruba.yaml -[25]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/audiocodes-mediant-sbc.yaml -[26]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/avaya.yaml -[27]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/avocent-acs.yaml -[28]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/avtech.yaml -[29]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/barracuda.yaml -[30]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/bluecat-server.yaml -[31]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/brocade.yaml -[32]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/brother.yaml -[33]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/chatsworth_pdu.yaml -[34]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/checkpoint.yaml -[35]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/checkpoint-firewall.yaml -[36]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/chrysalis.yaml -[37]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-3850.yaml -[38]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-asa.yaml -[39]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-asa-5525.yaml -[40]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-asr.yaml -[41]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-catalyst-wlc.yaml -[42]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-catalyst.yaml -[43]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-csr1000v.yaml -[44]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco_icm.yaml -[45]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-ise.yaml -[46]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-isr.yaml -[47]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco_isr_4431.yaml -[48]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-nexus.yaml -[49]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-sb.yaml -[50]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-ucs.yaml -[51]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_cisco-metadata.yaml -[52]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_cisco-wlc.yaml -[53]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco-legacy-wlc.yaml -[54]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cisco_uc_virtual_machine.yaml -[55]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/citrix.yaml -[56]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cradlepoint.yaml -[57]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/cyberpower-pdu.yaml -[58]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/dell-poweredge.yaml -[59]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_dell.yaml -[60]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/idrac.yaml -[61]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/isilon.yaml -[62]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/dialogic-media-gateway.yaml -[63]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/dlink.yaml -[64]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/eaton-epdu.yaml -[65]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/exagrid.yaml -[66]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/extreme-switching.yaml -[67]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/f5-big-ip.yaml -[68]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/fireeye.yaml -[70]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/fortinet.yaml -[71]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/fortinet-fortigate.yaml -[72]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/gigamon.yaml -[73]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/hp-ilo4.yaml -[74]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_hp.yaml -[75]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/hpe-proliant.yaml -[76]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_huawei.yaml -[77]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/ixsystems-truenas.yaml -[78]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/ibm.yaml -[79]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/infinera-coriant-groove.yaml -[213]:https://docs.datadoghq.com/ja/integrations/rapdev_infoblox/ -[80]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/infoblox-ipam.yaml -[81]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_juniper.yaml -[82]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/juniper-ex.yaml -[83]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_juniper-junos-generic.yaml -[84]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/juniper-mx.yaml -[85]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/juniper-srx.yaml -[86]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/kyocera-printer.yaml -[87]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/linksys.yaml -[88]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/mcafee-web-gateway.yaml -[89]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/meraki-cloud-controller.yaml -[90]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/meraki.yaml -[91]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/mikrotik-router.yaml -[92]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/nasuni-filer.yaml -[93]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/nec-univerge.yaml -[94]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/netapp.yaml -[95]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/netgear.yaml -[96]: https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/nvidia.yaml -[97]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/omron-cj-ethernet-ip.yaml -[98]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_opengear.yaml -[100]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/palo-alto.yaml -[101]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_palo-alto.yaml -[102]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/peplink.yaml -[103]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/pf-sense.yaml -[104]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/raritan-dominion.yaml -[105]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/riverbed.yaml -[106]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/ruckus.yaml -[107]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/server-iron-switch.yaml -[108]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/servertech.yaml -[109]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/silverpeak-edgeconnect.yaml -[110]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/sinetica-eagle-i.yaml -[111]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/sophos-xgs-firewall.yaml -[112]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/synology-disk-station.yaml -[113]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/tripplite.yaml -[114]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_ubiquiti.yaml -[115]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/velocloud-edge.yaml -[116]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/_vertiv.yaml -[117]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/vmware-esx.yaml -[118]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/watchguard.yaml -[119]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/western-digital-mycloud-ex2-ultra.yaml -[120]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/zebra-printer.yaml -[121]:https://github.com/DataDog/integrations-core/blob/master/snmp/datadog_checks/snmp/data/default_profiles/zyxel-switch.yaml -[200]: https://docs.datadoghq.com/ja/integrations/crest_data_systems_barracuda_waf/ -[201]: https://docs.datadoghq.com/ja/integrations/snmp_chatsworth_products/ -[202]: https://docs.datadoghq.com/ja/integrations/snmp_cisco/ -[203]: https://docs.datadoghq.com/ja/integrations/cisco_aci/?tab=host -[204]: https://docs.datadoghq.com/ja/integrations/crest_data_systems_cisco_asa/ -[205]: https://docs.datadoghq.com/ja/integrations/crest_data_systems_cisco_ise/ -[206]: https://docs.datadoghq.com/ja/integrations/snmp_dell/ -[207]: https://docs.datadoghq.com/ja/integrations/snmp_f5/ -[208]: https://docs.datadoghq.com/ja/integrations/snmp_fortinet/ -[209]: https://docs.datadoghq.com/ja/integrations/snmp_hewlett_packard_enterprise/ -[210]: https://docs.datadoghq.com/ja/integrations/snmp_juniper/ -[211]: https://docs.datadoghq.com/ja/integrations/pan_firewall/ -[212]: https://docs.datadoghq.com/ja/integrations/crest_data_systems_pfsense/ -[222]: https://docs.datadoghq.com/ja/integrations/pan_firewall/ -[223]: https://docs.datadoghq.com/ja/integrations/cisco_sdwan/ -[224]: /ja/network_monitoring/devices/guide/device_profiles/ -[225]: https://docs.datadoghq.com/ja/integrations/servicenow/#network-device-tagging -[226]: /ja/api/latest/network-device-monitoring/ \ No newline at end of file +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ja/network_monitoring/devices/guide/build-ndm-profile.md b/content/ja/network_monitoring/devices/guide/build-ndm-profile.md index be8ed6ce92bd2..8913a7a60dd17 100644 --- a/content/ja/network_monitoring/devices/guide/build-ndm-profile.md +++ b/content/ja/network_monitoring/devices/guide/build-ndm-profile.md @@ -34,7 +34,7 @@ NDM プロファイルを構築する最初のステップは、デバイスを - サポート対象の MIB (ASN1、テキスト形式)、OID、および関連する MIB ファイル。たとえば、HP は iLO デバイス向けのMIB パッケージを提供しています ([サイトはこちら][3])。**注**: メトリクスを収集するプロファイルでは MIB は不要です。 -**Note**: For more details on device use cases, see [Networking hardware][4]. +**注**: デバイスのユースケースに関する詳細は、[ネットワークハードウェア][4]を参照してください。 ### メトリクスの選定 @@ -51,7 +51,7 @@ NDM プロファイルを構築する最初のステップは、デバイスを - 温度: 温度センサー、熱的条件 - 電源供給: オン/オフまたはブランチ合計 -## Implementation +## 実装 ### プロファイルの追加 diff --git a/content/ja/notebooks/_index.md b/content/ja/notebooks/_index.md index a2bf6271021a6..6fef135a64276 100644 --- a/content/ja/notebooks/_index.md +++ b/content/ja/notebooks/_index.md @@ -16,226 +16,226 @@ further_reading: text: インシデントの事後分析を作成するためのベストプラクティス - link: https://www.datadoghq.com/blog/observability-pipelines-transform-and-enrich-logs/ tag: blog - text: Transform and enrich your logs with Datadog Observability Pipelines + text: Datadog Observability Pipelines によるログの変換と強化 title: ノートブック --- -## Overview +## 概要 -Notebooks combine graphs and text in a linear, cell-based format. They help you explore and share stories with your data by creating postmortems, investigations, runbooks, documentation, and more. +ノートブックは、グラフとテキストを組み合わせて 1 列のセル形式で表示し、事後分析、調査、ランブック、ドキュメントなどを作成することで、データの背景情報を調査したり共有したりできます。 -## Getting started +## はじめに -1. From the [Notebook List][1] page, click **+ New Notebook**. +1. [Notebook List][1] ページで、**+ New Notebook** をクリックします。 -2. Click the **Save Notebook** button. </br> - **Note**: A new notebook is not saved by default. +2. **Save Notebook** ボタンをクリックします。</br> + **注**: 新しいノートブックは、デフォルトでは保存されません。 -3. Add new cells to your notebook with [supported graph and text content](#types-of-content). +3. [サポートされているグラフやテキストコンテンツ](#types-of-content)を使って、ノートブックに新しいセルを追加します。 -4. [Configure cells](#cell-configuration). +4. [セルを構成します](#cell-configuration)。 -## Collaboration +## コラボレーション -{{< img src="notebooks/collaboration.png" alt="Indicators of users viewing the notebook and making live edits" style="width:100%;">}} +{{< img src="notebooks/collaboration.png" alt="ユーザーがノートブックを閲覧し、ライブエディットを行っていることを示すインジケーター" style="width:100%;">}} -Notebooks support real-time collaboration. Presence indicators show who is viewing your notebook at any time, as well as real-time edits to notebook cells. Changes made to a notebook appear automatically, without the need to refresh. +ノートブックは、リアルタイムのコラボレーションをサポートします。プレゼンスインジケーターは、ノートブックを誰が見ているか、またノートブックのセルをリアルタイムで編集しているかを表示します。ノートブックに加えられた変更は、更新することなく、自動的に表示されます。 -Everyone on your team can open any notebook, but a notebook can only be modified or deleted by any Datadog role with the `Notebooks Write` permission. +チームの誰もが任意のノートブックを開くことができますが、ノートブックを変更または削除できるのは、`Notebooks Write` 権限を持つ Datadog ロールに限られます。 -### Commenting +### コメントの作成 -To add a comment, select some text or hover over a graph. The **Add comment** icon is displayed to the right of the cell. From the comments you can also notify a member on your team through the `@mention` feature. Click the three vertical dots in the top-right corner of your comment to edit or delete a comment you wrote. View or re-open resolved comments in the Comment History side panel, available in the Notebook cog menu. +コメントを追加するには、テキストを選択するか、グラフにカーソルを合わせます。セルの右側に **Add comment** のアイコンが表示されます。コメントから、`@mention` 機能でチームのメンバーに通知することもできます。書いたコメントを編集したり削除したりするには、コメントの右上にある 3 つの縦長の点をクリックします。解決したコメントは、ノートブックの歯車メニューにある Comment History サイドパネルで表示したり、再度開いたりすることができます。 -Notebook authors receive email notifications for new comments on their notebooks, and commenters are notified for replies to their comments. Manage your notification settings through `Notifications` in the notebook cog menu. +ノートブックへ新規コメントがあると、ノートブックの作成者に通知が送信され、コメントに返信があるとコメントの作成者に通知が送信されます。通知設定を管理するには、ノートブックのメニュー(歯車)にある `Notifications` を使用します。 -### View mode +### ビューモード -{{< img src="notebooks/read_mode.png" alt="View mode dropdown menu" style="width:100%;">}} +{{< img src="notebooks/read_mode.png" alt="ビューモードドロップダウンメニュー" style="width:100%;">}} -You can switch between modes from within the Notebook by selecting the dropdown at the top right of your notebook. +ノートブックの右上にあるドロップダウンを選択することで、ノートブック内からモードを切り替えることができます。 -- **Editing**: make changes to the notebook. +- **Editing**: ノートブックに変更を加えます。 -- **Viewing**: contents are Read Only, preventing users from making unwanted edits to existing configurations and information. +- **Viewing**: コンテンツは読み取り専用で、既存の構成や情報をユーザーが不要に編集することを防ぎます。 -- **Presenting**: share the contents of the Notebook in a display format where each cell appears as a slide. Presentation mode supports graph interactions such as tooltips and legends. +- **Presenting**: 各セルがスライドとして表示される表示形式で、ノートブックの内容を共有します。プレゼンテーションモードでは、ツールチップや凡例などのグラフのインタラクションをサポートしています。 -## Share notebooks +## ノートブックの共有 -Click on the cog icon in the upper right of a notebook to see sharing options. Notebooks can be exported to PDF, Markdown, or any document editor. +ノートブックの右上にある歯車のアイコンをクリックすると、共有オプションが表示されます。ノートブックは、PDF、Markdown などのドキュメントエディタにエクスポートできます。 -To copy a notebook into a document editor, click **Copy formatted contents**. Paste into a document editor like Google Docs or Microsoft Word to see notebook contents, including graphs, with original formatting. +ノートブックをドキュメントエディタにコピーするには、**Copy formatted contents** をクリックします。Google ドキュメントや Microsoft Word などのドキュメントエディタに貼り付けて、グラフを含むノートブックのコンテンツを元の形式で表示します。 -### Import or export notebook JSON +### ノートブック JSON のインポートまたはエクスポート -Use **Export Notebook JSON** to download a JSON file containing the definition of your notebook. **Import Notebook JSON** overwrites all content on the notebook with the content of the uploaded JSON. +ノートブックの定義を含む JSON ファイルをダウンロードするには、**Export Notebook JSON** を使用します。**Import Notebook JSON** を使用すると、ノートブックのすべてのコンテンツがアップロード済みの JSON コンテンツで上書きされます。 -### Link to individual cells +### 個々のセルへのリンク設定 -To copy the URL for a specific cell, click the cell's **Share** menu and select **Link directly to cell**. Direct linking is available for both visualization and Markdown cells. +特定のセルの URL をコピーするには、セルの **Share** メニューをクリックし、**Link directly to cell** を選択します。直接リンクは、視覚化セルとマークダウンセルの両方で利用できます。 -When a user visits the URL for a specific cell, the notebook is opened to show the cell at the top of the viewport. Links are absolute. A cell's URL remains the same even if it is moved to a new position within the notebook. +ユーザーが特定のセルの URL にアクセスすると、ノートブックが開き、ビューポートの上部にセルが表示されます。絶対リンクのため、セルの URL はノートブック内で新しい位置に移されたとしても、変わることはありません。 -## Add images to notebooks +## ノートブックに画像を追加する -<div class="alert alert-info">Only PNG, JPG, JPEG, and GIF file types are supported. Uploads have a max file size of 4MB.</a></div> +<div class="alert alert-info">ファイル形式は PNG、JPG、JPEG、GIF のみ対応しており、アップロードの最大ファイルサイズは 4MB です。</a></div> -You can add images to your notebook using either the [image cell](#image-cell) or the [Markdown editor](#markdown-editor). +ノートブックに画像を追加するには、[イメージセル](#image-cell)または [Markdown エディタ](#markdown-editor)のいずれかを使用します。 -### Image cell +### イメージセル -This approach places the image in a separate cell from your text, and provides options for resizing, aligning, and captioning the image. Images uploaded by the image cell are hosted by Datadog. +この方法では、画像をテキストとは別のセルに配置し、サイズ変更、整列、キャプションの追加が可能です。イメージセルでアップロードされた画像は Datadog によってホストされます。 -To add an image, click the **Image** cell option in the **Add New Cell** menu. +画像を追加するには、**Add New Cell** メニューの **Image** セルオプションをクリックします。 -{{< img src="notebooks/image_cell.png" alt="Image cell in the Add New Cell menu of cells" style="width:70%;" >}} +{{< img src="notebooks/image_cell.png" alt="Add New Cell メニューのイメージセル" style="width:70%;" >}} -You can use any of the following options to upload an image to be hosted by Datadog: -- Drop an image file into the upload area -- Click **Choose File** and locate the image in your file directory -- Paste a publicly accessible URL for the image +Datadog にホストする画像をアップロードするには、以下のいずれかの方法を使用します。 +- アップロード領域に画像ファイルをドロップします。 +- **Choose File** をクリックし、ファイルディレクトリから画像を選択します。 +- 画像の公開 URL を貼り付けます。 -Click the icons on the cell action tray to adjust the size, alignment, add a caption for the image cell, or view the image in full screen mode. +セルのアクショントレイにあるアイコンをクリックして、サイズや配置を調整したり、キャプションを追加したり、フルスクリーンモードで画像を表示したりします。 -{{< img src="notebooks/notebooks_image_edit_action_tray.png" alt="Image cell action tray to adjust image alignment and add a caption" style="width:70%;" >}} +{{< img src="notebooks/notebooks_image_edit_action_tray.png" alt="イメージセルのアクショントレイで画像の配置を調整し、キャプションを追加する" style="width:70%;" >}} -### Markdown editor +### Markdown エディタ -This approach places the image inline with your text, but does not provide options for resizing the image. +この方法では画像はテキストとインラインで配置されますが、画像のサイズを変更するオプションはありません。 -Enter the edit mode on any Markdown cell and use any of the following options to add the image: -- Drop an image file into the text cell area. -- Copy and paste the image directly into the text cell area. -- Hyperlink an external image using the image widget in the header or by referencing the [official Markdown guide][2]. **Note**: This option does not upload the image to be hosted by Datadog. +任意の Markdown セルの編集モードに入り、以下のいずれかの方法で画像を追加します。 +- 画像ファイルをテキストセル領域にドロップします。 +- 画像をコピーしてテキストセル領域に直接貼り付けます。 +- ヘッダーの画像ウィジェットを使用するか、[公式 Markdown ガイド][2]を参照して外部画像をハイパーリンクします。**注**: この方法では Datadog にホストする画像をアップロードしません。 -You can preview the image in the Preview tab before saving it to your notebook. +画像をノートブックに保存する前に、Preview タブで画像を確認できます。 -## Notebook List +## ノートブック一覧 -{{< img src="notebooks/notebook_list.png" alt="notebook list previewing the cell types of a selected notebook" style="width:100%;">}} +{{< img src="notebooks/notebook_list.png" alt="選択したノートブックのセルの種類をプレビューするノートブック一覧" style="width:100%;">}} -The [Notebook List][1] allows you to view and search previously created notebooks. Each notebook's name, creator, and last modified date are displayed. Notebooks are grouped by: +[ノートブック一覧][1]で、以前に作成したノートブックの表示と検索ができます。各ノートブックの名前、作成者、最終更新日が表示されます。ノートブックは以下のグループに分けられます。 -* **Your Notebooks**: Notebooks created by you. -* **All Notebooks**: All Notebooks in your organization. -* **[Notebook Type](#notebook-types)**: Group notebooks by type. +* **Your Notebooks**: 自分が作成したノートブック。 +* **All Notebooks**: 組織内のすべてのノートブック。 +* **[Notebook Type](#notebook-types)**: ノートを種類別に分類します。 -Hover over the Preview icon for any Notebook to see a preview of the contents, including widget types and Markdown. To open the Notebook in [View Mode](#view-mode), hover over the notebook and click **Open notebook in view mode** on the right. +任意のノートブックのプレビューアイコンにカーソルを合わせると、ウィジェットタイプや Markdown を含むコンテンツのプレビューが表示されます。[ビューモード](#view-mode)でノートブックを開くには、ノートブックにカーソルを合わせ、右側にある **Open notebook in view mode** をクリックします。 -## Template gallery -From the [Template Gallery][3], see ready-to-use templates which you can create new notebooks from. Templates include an Incident Response postmortem, an Incident Report, and SLO Specification. You can also create a new custom template to build reusable notebook structures. +## テンプレートギャラリー +[テンプレートギャラリー][3]では、新しいノートブックを作成するための、すぐに使えるテンプレートが紹介されています。テンプレートには、インシデントレスポンスのポストモーテム、インシデントレポート、SLO 仕様が含まれます。また、新しいカスタムテンプレートを作成し、再利用可能なノートブック構造を構築することもできます。 -## Version history -From a notebook, click the **Configure** icon and click **Version history** to open the Version History side panel. You can preview, restore, or clone your notebook's version history. For more information, see the [Version History guide][4]. +## バージョン履歴 +ノートブックから ** Configure** アイコンをクリックし、**Version history** をクリックすると、バージョン履歴のサイドパネルが表示されます。ノートブックのバージョン履歴をプレビューしたり、復元したり、複製したりすることができます。詳しくは、[バージョン履歴ガイド][4]を参照してください。 -## Notebook configuration +## ノートブックの構成 -### Time frames +### タイムフレーム -By default, all graph cells are linked to the global time frame set in the notebook header. +デフォルトでは、すべてのグラフセルはノートブックのヘッダに設定されたグローバルなタイムフレームにリンクされています。 -To view a different time frame, select an option in the global time picker, or scrub on a graph directly. The notebook URL will update to reflect this new time frame without saving it to the notebook. +別のタイムフレームを表示するには、グローバルタイムピッカーでオプションを選択するか、グラフを直接スクラブします。ノートブック URL は、ノートブックに保存することなく、この新しいタイムフレームを反映するように更新されます。 -**Note**: Clicking and dragging to zoom in on a graph does not unlock the cell from the global time. It changes the notebook's global time instead. +**注**: クリックアンドドラッグしてグラフを拡大しても、セルのグローバルな時間を解除することはできません。この操作を行うと、ノートブックのグローバルなタイムフレームが変更されます。 -{{< img src="notebooks/set_default_time.png" alt="Save notebook global time with Set Default Time button" style="width:100%;">}} +{{< img src="notebooks/set_default_time.png" alt="Set Default Time ボタンでノートブックのグローバルタイムを保存する" style="width:100%;">}} -To save this time as the notebook's default, click **Set Default Time**. To reset your global time back to the previously saved default global time, click the reset button. +この時間をノートブックのデフォルトとして保存するには、**Set Default Time** をクリックします。グローバルタイムを、以前に保存したデフォルトのグローバルタイムに戻すには、リセットボタンをクリックします。 -Individual cells can be unlinked from the global time and set to an independent time frame. +個々のセルは、グローバルタイムのリンクを解除し、独立したタイムフレームを設定することができます。 -{{< img src="notebooks/cell_time.png" alt="Cell Time Selector with the cell unlinked from global time" style="width:100%;">}} +{{< img src="notebooks/cell_time.png" alt="セルがグローバルタイムとリンクしていない状態のセルタイムセレクター" style="width:100%;">}} -To view a different time frame on a single cell, edit the cell and use the toggle to unlink it from Global Time. Change the time frame using the time picker or by scrubbing on the graph. Changes made in edit mode are saved automatically when you click **Done**. To discard your changes, click **Cancel** instead of **Done**. +1 つのセルで別のタイムフレームを表示するには、そのセルを編集し、トグルを使用しグローバルタイムからリンクを解除します。タイムピッカーを使用するかグラフをスクラブして、タイムフレームを変更します。編集モードでの変更は、**Done** をクリックすると自動的に保存されます。変更内容を破棄するには、**Done** ではなく **Cancel** をクリックします。 -### Notebook types +### ノートブックタイプ -{{< img src="notebooks/add_notebook_type.png" alt="Add Type button highlighted in a Notebook" style="width:100%;">}} +{{< img src="notebooks/add_notebook_type.png" alt="ノートブックでハイライトされたタイプ追加ボタン" style="width:100%;">}} -Notebooks can be grouped into types, giving you quick access to relevant information. Notebooks built from other products like Incident Management or Monitors may automatically assign a type. Hover over the notebook title to display the option to add or edit the type. Click **+ Add Type**, or to edit the type, click the pencil icon that appears next to it on hover. +ノートブックをタイプ別に分類することで、関連する情報に素早くアクセスすることができます。インシデント管理やモニターなど、他の製品から構築されたノートブックには、自動的にタイプが割り当てられる場合があります。ノートブックのタイトルにカーソルを合わせると、タイプを追加または編集するためのオプションが表示されます。または、カーソルを合わせて表示される鉛筆のアイコンをクリックすると、タイプを編集することができます。 -### Graph snapshots +### グラフのスナップショット -Notebooks can be set to automatically take snapshots of graphs that might expire. Enable this by clicking **Turn on snapshots** in the cog menu of any notebook. Use the cog menu to view snapshots or turn off automatic snapshots. Turn off automatic snapshots to remove access to existing snapshots. +ノートブックでは、期限切れになる可能性のあるグラフのスナップショットを自動的に取るように設定することができます。ノートブックの歯車メニューの **Turn on snapshots** をクリックして、この機能を有効にします。歯車メニューを使用して、スナップショットを表示したり、自動スナップショットをオフにしたりすることができます。自動スナップショットをオフにすると、既存のスナップショットへのアクセスが削除されます。 -{{< img src="notebooks/cog_snapshots.png" alt="Cog menu option to turn on snapshots" style="width:100%;">}} +{{< img src="notebooks/cog_snapshots.png" alt="スナップショットをオンにする歯車メニューオプション" style="width:100%;">}} - Notebooks with snapshots enabled automatically capture a static image of any graphs with a fixed time range (for example, `Aug 18, 12:00 am - Aug 19, 11:59 pm`). These snapshots update when the graph is updated, as long as the new graph also has a fixed time range. Changing the graph to a global time range (like `Past 1 Hour`) removes the snapshot. + スナップショットが有効になっているノートブックは、固定の時間範囲 (たとえば `Aug 18, 12:00 am - Aug 19, 11:59 pm`) でグラフの静止画像を自動的にキャプチャします。このスナップショットは、新しいグラフに同じ時間範囲が設定されていれば、グラフの更新に合わせて更新されます。グラフをグローバルな時間範囲 (`Past 1 Hour` など) に変更すると、スナップショットは削除されます。 - You can preview the existing snapshot on any fixed-time graph by hovering over the camera icon while in edit mode. + 固定時間のグラフの既存のスナップショットをプレビューするには、編集モードでカメラアイコンの上にカーソルを合わせます。 -To share a version of your notebook with snapshots, from the cog menu, click **View snapshots**. Copy the URL, or append `&view=snapshots` to the URL of any notebook that has snapshots enabled. +スナップショット付きのノートブックのバージョンを共有するには、歯車メニューから、**View snapshots** をクリックします。URL をコピーするか、スナップショットを有効にしているノートブックの URL に `&view=snapshots` を追加します。 -### Template variables +### テンプレート変数 -Notebooks support template variables. Dynamically scope visualizations by adding and selecting template variable values. For more information, see [Template Variables][5]. +ノートブックはテンプレート変数をサポートしています。テンプレート変数の値を追加・選択することで、視覚化した内容を動的にスコープすることができます。詳しくは、[テンプレート変数][5]を参照してください。 -### Cell configuration +### セルの構成 -To add cells, use the **+** button that appears to the left of the cell, or select an option from the **Add New Cell** section at the bottom of the notebook. Use the action tray that appears above the cell on hover to share, clone, or delete cells. Graph cells can be exported to a dashboard, or downloaded as a PNG or a CSV of graph data. Changes made in edit mode are saved automatically when you click **Done**. To discard your changes, click **Cancel** instead of **Done**. +セルを追加するには、セルの左に表示される **+** ボタンを使用するか、ノートブックの下部にある **Add New Cell** のセクションからオプションを選択します。セルを共有、複製、削除するには、カーソルを置いたときにセルの上に表示されるアクショントレイを使用します。グラフセルは、ダッシュボードにエクスポートしたり、PNG やグラフデータの CSV としてダウンロードすることができます。編集モードでの変更は、**Done** をクリックすると自動的に保存されます。変更内容を破棄するには、**Done** ではなく、**Cancel** をクリックしてください。 -#### Edit options +#### オプションの編集 -Click on **More options** in the inline editor of a widget to edit widget options. Add details like event overlays, markers, and y-axis controls. +ウィジェットのインラインエディターで **More options** をクリックすると、ウィジェットのオプションが編集できます。イベントオーバーレイ、マーカー、Y 軸コントロールなどの詳細を追加します。 -#### Layout options +#### レイアウトオプション -In a Notebook cell, click **Edit** to view the cell configuration in edit mode. You can also see the available layout options, which vary based on the cell content type, but include the following: +ノートブックのセルで、**Edit** をクリックすると、セルの構成が編集モードで表示されます。また、利用可能なレイアウトオプションを見ることができます。レイアウトオプションは、セルのコンテンツタイプによって異なりますが、以下のようなものがあります。 -* **Graph size**: Choose between `XS`, `S`, `M` (default), `L`, and `XL`. -* **Graph legend**: Uncheck the box to hide the legend. Legends are automatically disabled for `XS` and `S` graphs. -* **Grouping**: Display one graph per tag value to see small multiples of your visualization. +* **グラフサイズ**: `XS`、`S`、`M` (デフォルト)、`L`、`XL`から選択。 +* **グラフの凡例**: 凡例を非表示にするには、ボックスのチェックマークを外します。`XS` と `S` サイズのグラフでは、凡例は自動的に無効になります。 +* **グループ化**: タグ値ごとに 1 つのグラフを表示し、複数の小さいグループに視覚化します。 -{{< img src="notebooks/edit_cell_action_menu.png" alt="The graph settings option of a notebook cell in edit mode displaying layout options for graph size, legend, and grouping configuration" style="width:100%;">}} +{{< img src="notebooks/edit_cell_action_menu.png" alt="グラフサイズ、凡例、グループ化構成のレイアウトオプションを表示する編集モードのノートブックセルのグラフ設定オプション" style="width:100%;">}} -**Note**: Changing any of these settings only affects the targeted cell. +**注**: 設定の変更は対象となるセルにのみ影響します。 -#### Types of content +#### コンテンツの種類 -Notebooks support visualizations and text cells. Text cells are formatted with [Markdown][6], which enables the use of headings, subheadings, links, images, lists, and code blocks. Notebooks also support diagrams formatted with [MermaidJS][7]. +ノートブックは、視覚化とテキストセルをサポートしています。テキストセルは [Markdown][6] でフォーマットされ、見出し、小見出し、リンク、イメージ、リスト、コードブロックを使用することが可能です。また、ノートブックでは、[MermaidJS][7] でフォーマットされたダイアグラムもサポートしています。 -Graphs in notebooks support all Datadog data sources: metrics, log events, Indexed Spans, live processes, network traffic, RUM events, profiling metrics, security signals, and more. Graphs are created with the Datadog query editor. Notebooks support: +ノートブック内のグラフは、Datadog のすべてのデータソースに対応しています(メトリクス、ログイベント、インデックス化されたスパン、ライブプロセス、ネットワークトラフィック、RUM イベント、プロファイリングのメトリクス、セキュリティシグナルなど)。グラフは、Datadog のクエリエディターで作成します。ノートブックは以下に対応しています。 -* [Text][8] -* [Images](#add-images-to-cells) -* [Timeseries][9] -* [Top List][10] -* [Table][11] -* [Query Value][12] -* [Heatmap][13] -* [Distribution][14] -* [List][15] -* [Profiling Flame Graph][16] -* [Funnel][17] -* [Pie][18] -* [Treemap][16] -* [Geomap][19] +* [テキスト][8] +* [画像](#add-images-to-cells) +* [時系列][9] +* [トップリスト][10] +* [テーブル][11] +* [クエリ値][12] +* [ヒートマップ][13] +* [分布][14] +* [リスト][15] +* [プロファイリングフレームグラフ][16] +* [ファネル][17] +* [円グラフ][18] +* [ツリーマップ][16] +* [ジオマップ][19] * [SLO][20] -### Limit edit access +### 編集アクセス権の制限 -By default, all users have full access to notebooks. +デフォルトでは、すべてのユーザーがノートブックにフルアクセスできます。 -Use granular access controls to limit the [roles][21] that may edit a particular notebook: -1. While viewing a notebook, click on the cog in the upper right. The settings menu opens. -1. Select **Permissions**. -1. Click **Restrict Access**. -1. The dialog box updates to show that members of your organization have **Viewer** access by default. -1. Use the dropdown to select one or more roles, teams, or users that may edit the notebook. -1. Click **Add**. -1. The dialog box updates to show that the role you selected has the **Editor** permission. -1. Click **Save** +きめ細かいアクセス制御を使用して、特定のノートブックを編集できる[ロール][21]を制限することができます。 +1. ノートブックを表示中に、右上の歯車をクリックします。設定メニューが開きます。 +1. **Permissions** を選択します。 +1. **Restrict Access** をクリックします。 +1. ダイアログボックスが更新され、組織のメンバーはデフォルトで **Viewer** アクセス権を持っていることが表示されます。 +1. ドロップダウンを使用して、ノートブックを編集できる 1 つまたは複数のロール、チーム、ユーザーを選択します。 +1. **Add** をクリックします。 +1. ダイアログボックスが更新され、選択したロールに **Editor** 権限があることが表示されます。 +1. **Save** をクリックします。 -**Note:** To maintain your edit access to the notebook, the system requires you to include at least one role that you are a member of before saving. +**注:** ノートブックの編集アクセス権を維持するために、保存する前に、少なくとも 1 つのロールのメンバーであることを含めることがシステムから要求されます。 -To restore general access to a notebook with restricted access, follow the steps below: -1. While viewing the notebook, click on the cog in the upper right. The settings menu opens. -1. Select **Permissions**. -1. Click **Restore Full Access**. -1. Click **Save**. +アクセスが制限されたノートブックに一般的なアクセスを戻すには、次の手順に従います。 +1. ノートブックを表示中に、右上の歯車をクリックします。設定メニューが開きます。 +1. **Permissions** を選択します。 +1. **Restore Full Access** をクリックします。 +1. **Save** をクリックします。 -## Further Reading +## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/real_user_monitoring/browser/advanced_configuration.md b/content/ja/real_user_monitoring/browser/advanced_configuration.md new file mode 100644 index 0000000000000..f0ee8a677b6b4 --- /dev/null +++ b/content/ja/real_user_monitoring/browser/advanced_configuration.md @@ -0,0 +1,1037 @@ +--- +aliases: +- /ja/real_user_monitoring/installation/advanced_configuration/ +- /ja/real_user_monitoring/browser/modifying_data_and_context/ +further_reading: +- link: /real_user_monitoring/browser/tracking_user_actions + tag: ドキュメント + text: ユーザーアクションの追跡 +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: ブログ + text: Real User Monitoring +- link: /real_user_monitoring/browser/data_collected/ + tag: ドキュメント + text: RUM ブラウザデータ収集 +- link: /real_user_monitoring/explorer/ + tag: ドキュメント + text: Datadog でビューを検索する +- link: /real_user_monitoring/explorer/visualize/ + tag: ドキュメント + text: イベントへの視覚化の適用 +- link: /logs/log_configuration/attributes_naming_convention + tag: ドキュメント + text: Datadog 標準属性 +title: 高度な構成 +--- + +## 概要 + +RUM によって[収集されたデータおよびコンテキスト][1]を、次のニーズをサポートするために変更する方法は、さまざまあります。 + +- 個人を特定できる情報などの機密データを保護します。 +- サポートを支援するために、ユーザーセッションをそのユーザーの内部 ID に接続します。 +- データをサンプリングすることにより、収集する RUM データの量を削減します。 +- データの送信元について、デフォルトの属性が提供するものよりも多くのコンテキストを提供します。 + +## デフォルトの RUM ビュー名をオーバーライドする + +RUM SDK は、ユーザーが新しいページにアクセスするたびに、またはページの URL が変更されたときに (シングルページアプリケーションの場合)、[ビューイベント][2]を自動的に生成します。ビュー名は現在のページの URL から計算され、可変英数字 ID は自動的に削除されます。たとえば、`/dashboard/1234` は `/dashboard/?` になります。 + +[バージョン 2.17.0][3] からは、`trackViewsManually` オプションでビューイベントを手動で追跡することにより、ビュー名を追加して、チームが所有する専用サービスに割り当てることができます。 + +1. RUM ブラウザ SDK を初期化する際に、`trackViewsManually` を true に設定します。 + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {{% /tab %}} + {{% tab "CDN 非同期" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }) + }) + ``` + {{% /tab %}} + {{% tab "CDN 同期" %}} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {{% /tab %}} + {{< /tabs >}} + +2. 新しいページまたはルート変更 (単一ページアプリケーションの場合) ごとにビューを開始する必要があります。RUM データは、ビューの開始時に収集されます。[バージョン 4.13.0][17] からは、オプションで、関連するサービス名およびバージョンを定義できます。 + + - ビュー名: デフォルトは、ページの URL パスです。 + - サービス: デフォルトは、RUM アプリケーションの作成時に指定されたデフォルトのサービスです。 + - バージョン: デフォルトは、RUM アプリケーションの作成時に指定されたデフォルトのバージョンです。 + + 詳しくは、[ブラウザモニタリングの設定][4]をご覧ください。 + + <details open> + <summary>Latest version</summary> + The following example manually tracks the pageviews on the <code>checkout</code> page in a RUM application. Use <code>checkout</code> for the view name and associate the <code>purchase</code> service with version <code>1.2.3</code>. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + ``` + {{% /tab %}} + {{< /tabs >}} + </details> + + <details> + <summary>before <code>v4.13.0</code></summary> + The following example manually tracks the pageviews on the <code>checkout</code> page in a RUM application. No service or version can be specified. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + datadogRum.startView('checkout') + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView('checkout') + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && window.DD_RUM.startView('checkout') + ``` + {{% /tab %}} + {{< /tabs >}} + + </details> + +React、Angular、Vue、またはその他のフロントエンドフレームワークを使用している場合、Datadog はフレームワークルーターレベルで `startView` ロジックを実装することをお勧めします。 + +### React ルーターのインスツルメンテーション + +デフォルトの RUM ビュー名をオーバーライドして、React アプリケーションで定義したビュー名と一致させるには、以下の手順に従う必要があります。 + +**注**: これらの手順は、**React Router v6** ライブラリに固有のものです。 + +1. RUM Browser SDK を初期化する際に、[上記](#override-default-rum-view-names)の説明に従って `trackViewsManually` を `true` に設定します。 + +2. ルート変更ごとのビューを開始します。 + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + import { datadogRum } from "@datadog/browser-rum"; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + datadogRum.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + + {{% /tab %}} + {{% tab "CDN 非同期" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + DD_RUM.onReady(function() { + DD_RUM.startView({name: viewName}); + }); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {{% /tab %}} + {{% tab "CDN 同期" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + window.DD_RUM && + window.DD_RUM.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {{% /tab %}} + {{< /tabs >}} + +## RUM データを強化および制御する + +RUM ブラウザ SDK は RUM イベントをキャプチャし、それらの主な属性を設定します。`beforeSend` コールバック関数を使用すると、RUM ブラウザ SDK によって収集されたイベントが Datadog に送信される前に、そのすべてのイベントにアクセスできます。 + +RUM イベントをインターセプトすると、次のことが可能になります。 + +- 追加のコンテキスト属性で RUM イベントを強化する +- RUM イベントを変更して、コンテンツを変更したり、機密性の高いシーケンスを編集したりします ([編集可能なプロパティのリスト](#modify-the-content-of-a-rum-event)を参照してください) +- 選択した RUM イベントを破棄する + +[バージョン 2.13.0][5] 以降、`beforeSend` は 2 つの引数を取ります。RUM ブラウザ SDK によって生成された `event` と、RUM イベントの作成をトリガーした `context` です。 + +```javascript +function beforeSend(event, context) +``` + +潜在的な `context` 値は次のとおりです。 + +| RUM イベントタイプ | コンテキスト | +|------------------|---------------------------| +| ビュー | [場所][6] | +| アクション | [イベント][7] | +| リソース (XHR) | [XMLHttpRequest][8] と [PerformanceResourceTiming][9] | +| リソース (フェッチ) | [リクエスト][10]、[リソース][11]、[PerformanceResourceTiming][9] | +| リソース (その他) | [PerformanceResourceTiming][9] | +| Error | [エラー][12] | +| ロングタスク | [PerformanceLongTaskTiming][13] | + +詳細については、[RUM データの強化と制御ガイド][14]を参照してください。 + +### RUM イベントを強化する + +[グローバルコンテキスト API](#global-context) や [機能フラグのデータ収集](#enrich-rum-events-with-feature-flags)で追加された属性に加えて、イベントにコンテキスト属性を追加できます。たとえば、フェッチ応答オブジェクトから抽出されたデータで RUM リソースイベントにタグを付けます。 + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event, context) => { + // RUM リソースの応答ヘッダーを収集します + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // RUM リソースの応答ヘッダーを収集します + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // RUM リソースの応答ヘッダーを収集します + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +ユーザーが複数のチームに所属している場合は、グローバルコンテキスト API を呼び出す際に、Key-Value ペアを追加してください。 + +RUM ブラウザ SDK は以下を無視します。 + +- `event.context` の外に追加された属性 +- RUM ビューイベントコンテキストに加えられた変更 + +### 機能フラグで RUM イベントをリッチ化する + +[RUM イベントデータを機能フラグでリッチ化する][14]ことで、パフォーマンスモニタリングにさらなるコンテキストと可視性を得ることができます。これにより、どのユーザーに特定のユーザーエクスペリエンスが表示され、それがユーザーのパフォーマンスに悪影響を及ぼしているかどうかを判断することができます。 + +### RUM イベントのコンテンツを変更 + +たとえば、Web アプリケーションの URL からメールアドレスを編集するには + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + // ビューの URL からメールを削除します + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // ビューの URL からメールを削除します + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // ビューの URL からメールを削除します + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +次のイベントプロパティを更新できます。 + +| 属性 | タイプ | 説明 | +|-----------------------|-----------|-----------------------------------------------------------------------------------------------------| +| `view.url` | 文字列 | アクティブな Web ページの URL。 | +| `view.referrer` | 文字列 | 現在リクエストされているページへのリンクがたどられた前のウェブページの URL。 | +| `view.name` | 文字列 | 現在のビューの名前。 | +| `action.target.name` | 文字列 | ユーザーが操作した要素。自動的に収集されたアクションの場合のみ。 | +| `error.message` | 文字列 | エラーについて簡潔にわかりやすく説明する 1 行メッセージ。 | +| `error.stack ` | 文字列 | スタックトレースまたはエラーに関する補足情報。 | +| `error.resource.url` | 文字列 | エラーをトリガーしたリソース URL。 | +| `resource.url` | 文字列 | リソースの URL。 | +| `context` | オブジェクト | [グローバルコンテキスト API](#global-context) を使って、またはイベントを手動で生成するときに追加される属性 (例: `addError` および `addAction`)。RUM ビューイベント `context` は読み取り専用です。 | + +RUM ブラウザ SDK は、上記にリストされていないイベントプロパティに加えられた変更を無視します。イベントプロパティの詳細については、[RUM ブラウザ SDK GitHub リポジトリ][15]を参照してください。 + +### RUM イベントを破棄 + +`beforeSend` API で、`false` を返し RUM イベントを破棄します。 + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + }, + ... + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +**注**: ビューイベントは破棄できません。 + +## ユーザーセッション + +RUM セッションにユーザー情報を追加すると、次の役に立ちます。 +* 特定のユーザーのジャーニーをたどる +* エラーの影響を最も受けているユーザーを把握する +* 最も重要なユーザーのパフォーマンスを監視する + +{{< img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="RUM UI のユーザー API" >}} + +次の属性はオプションですが、Datadog は少なくとも 1 つを指定することを推奨しています。 + +| 属性 | タイプ | 説明 | +|------------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | 文字列 | 一意のユーザー識別子。 | +| `usr.name` | 文字列 | RUM UI にデフォルトで表示されるユーザーフレンドリーな名前。 | +| `usr.email` | 文字列 | ユーザー名が存在しない場合に RUM UI に表示されるユーザーのメール。Gravatar をフェッチするためにも使用されます。 | + +推奨される属性に加えてさらに属性を追加することで、フィルタリング機能を向上できます。たとえば、ユーザープランに関する情報や、所属するユーザーグループなどを追加します。 + +ユーザーセッションオブジェクトに変更を加えた場合、変更後に収集されるすべての RUM イベントには、更新された情報が含まれます。 + +**注**: ログアウトのようにユーザーセッション情報を削除すると、ログアウト前の最後のビューではユーザー情報が保持されますが、それ以降のビューやセッションレベルでは、セッションデータは最後のビューの値を使用するため保持されません。 + +### ユーザーセッションを特定する + +`datadogRum.setUser(<USER_CONFIG_OBJECT>)` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` + +{{% /tab %}} +{{< /tabs >}} + +### ユーザーセッションにアクセスする + +`datadogRum.getUser()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.getUser() +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getUser() +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.getUser() +``` + +{{% /tab %}} +{{< /tabs >}} + +### ユーザーセッションプロパティの追加/オーバーライド + +`datadogRum.setUserProperty('<USER_KEY>', <USER_VALUE>)` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setUserProperty('name', 'John Doe') +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUserProperty('name', 'John Doe') +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.setUserProperty('name', 'John Doe') +``` + +{{% /tab %}} +{{< /tabs >}} + +### ユーザーセッションプロパティを削除する + +`datadogRum.removeUserProperty('<USER_KEY>')` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.removeUserProperty('name') +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeUserProperty('name') +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.removeUserProperty('name') +``` +{{% /tab %}} +{{< /tabs >}} + +### ユーザーセッションプロパティをクリアする + +`datadogRum.clearUser()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.clearUser() +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearUser() +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.clearUser() +``` +{{% /tab %}} +{{< /tabs >}} + +## サンプリング + +デフォルトでは、収集セッション数にサンプリングは適用されていません。収集セッション数に相対サンプリング (% 表示) を適用するには、RUM を初期化する際に `sessionSampleRate` パラメーターを使用します。 + +下記の例では、RUM アプリケーションの全セッションの 90% のみを収集します。 + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '<DATADOG_APPLICATION_ID>', + clientToken: '<DATADOG_CLIENT_TOKEN>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '<CLIENT_TOKEN>', + applicationId: '<APPLICATION_ID>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '<CLIENT_TOKEN>', + applicationId: '<APPLICATION_ID>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, + }); +``` +{{% /tab %}} +{{< /tabs >}} + +サンプルとして抽出したセッションでは、すべてのページビューとそのセッションに紐付くテレメトリーは収集されません。 + +## ユーザー追跡に関する同意 + +GDPR、CCPA や同様の規制に準拠するため、RUM Browser SDK では初期化時に追跡に関する同意を提供することができます。追跡に関する同意の詳細については、[データセキュリティ][18]を参照してください。 + +`trackingConsent` の初期化パラメーターは以下のいずれかの値で示されます。 + +1. `"granted"`: RUM Browser SDK はデータの収集を開始し、Datadog に送信します。 +2. `"not-granted"`: RUM Browser SDK はデータを収集しません。 + +RUM Browser SDK の初期化後に追跡同意値を変更するには、`setTrackingConsent()` API 呼び出しを使用します。RUM Browser SDK は、新しい値に応じて動作を変更します。 + +* `"granted"` から `"not-granted"` に変更すると、RUM セッションは停止し、データは Datadog に送信されなくなります。 +* `"not-granted"` から `"granted"` に変更すると、以前のセッションがアクティブでない場合、新しい RUM セッションが作成され、データ収集が再開されます。 + +この状態はタブ間で同期されず、ナビゲーション間で永続化されません。RUM Browser SDK の初期化時や、`setTrackingConsent()` を使用して、ユーザーの決定を提供するのはあなたの責任です。 + +`setTrackingConsent()` が `init()` の前に使用された場合、指定された値が初期化パラメーターよりも優先されます。 + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', function() { + datadogRum.setTrackingConsent('granted'); +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' + }); +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM.onReady(function() { + window.DD_RUM.setTrackingConsent('granted'); + }); +}); +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM && window.DD_RUM.setTrackingConsent('granted'); +}); +``` +{{% /tab %}} +{{< /tabs >}} + +## グローバルコンテキスト + +### グローバルコンテキストプロパティを追加する + +RUM を初期化した後、`setGlobalContextProperty(key: string, value: any)` API を使用してアプリケーションから収集したすべての RUM イベントにコンテキストを追加します。 + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setGlobalContextProperty('<CONTEXT_KEY>', <CONTEXT_VALUE>); + +// コード例 +datadogRum.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('<CONTEXT_KEY>', '<CONTEXT_VALUE>'); +}) + +// コード例 +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('<CONTEXT_KEY>', '<CONTEXT_VALUE>'); + +// コード例 +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{{% /tab %}} +{{< /tabs >}} + +### グローバルコンテキストプロパティを削除する + +以前に定義したグローバルコンテキストプロパティを削除することができます。 + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.removeGlobalContextProperty('<CONTEXT_KEY>'); + +// コード例 +datadogRum.removeGlobalContextProperty('codeVersion'); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('<CONTEXT_KEY>'); +}) + +// コード例 +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('<CONTEXT_KEY>'); + +// コード例 +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +``` + +{{% /tab %}} +{{< /tabs >}} + + +### グローバルコンテキストを置換 + +`setGlobalContext(context: Context)` API を使用してすべての RUM イベントのデフォルトコンテキストを置換します。 + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); + +// コード例 +datadogRum.setGlobalContext({ + codeVersion: 34, +}); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); +}) + +// コード例 +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +window.DD_RUM && + window.DD_RUM.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); + +// コード例 +window.DD_RUM && + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }); +``` + +{{% /tab %}} +{{< /tabs >}} + +### グローバルコンテキストをクリアする + +グローバルコンテキストをクリアするには、`clearGlobalContext` を使用します。 + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.clearGlobalContext(); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearGlobalContext(); +}); +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +window.DD_RUM && window.DD_RUM.clearGlobalContext(); +``` + +{{% /tab %}} +{{< /tabs >}} + +### グローバルコンテキストを読み取る + +RUM を初期化したら、`getGlobalContext()` API を使用してグローバルコンテキストを読み取ります。 + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const context = datadogRum.getGlobalContext(); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + const context = window.DD_RUM.getGlobalContext(); +}); +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +const context = window.DD_RUM && window.DD_RUM.getGlobalContext(); +``` + +{{% /tab %}} +{{< /tabs >}} + +## コンテキストのライフサイクル + +デフォルトでは、グローバルコンテキストとユーザーコンテキストは現在のページメモリに格納されます。つまり、これらは + +- ページのフルリロード後に保持されません +- 同じセッションの異なるタブまたはウィンドウ間で共有されません + +セッションのすべてのイベントに追加するには、すべてのページにアタッチする必要があります。 + +ブラウザ SDK の v4.49.0 で `storeContextsAcrossPages` 構成オプションが導入され、これらのコンテキストを [`localStorage`][19] に格納できるようになり、以下の動作が可能になりました。 + +- フルリロード後にコンテキストが保持される +- 同じオリジンで開かれたタブ間でコンテキストが同期される + +しかし、この機能にはいくつかの**制限**があります。 + +- `localStorage` に格納されたデータはユーザーセッションを超えて残るため、これらのコンテキストで個人を特定できる情報 (PII) を設定することは推奨されません +- この機能は `trackSessionAcrossSubdomains` オプションと互換性がありません。なぜなら `localStorage` データは同じオリジン間でしか共有されないからです (login.site.com ≠ app.site.com) +- `localStorage` is limited to 5 MiB by origin, so the application-specific data, Datadog contexts, and other third-party data stored in local storage must be within this limit to avoid any issues + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/real_user_monitoring/browser/data_collected/ +[2]: /ja/real_user_monitoring/browser/monitoring_page_performance/ +[3]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2170 +[4]: /ja/real_user_monitoring/browser/setup +[5]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2130 +[6]: https://developer.mozilla.org/en-US/docs/Web/API/Location +[7]: https://developer.mozilla.org/en-US/docs/Web/API/Event +[8]: https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest +[9]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming +[10]: https://developer.mozilla.org/en-US/docs/Web/API/Request +[11]: https://developer.mozilla.org/en-US/docs/Web/API/Response +[12]: https://developer.mozilla.org/en-US/docs/Web//Reference/Global_Objects/Error +[13]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceLongTaskTiming +[14]: /ja/real_user_monitoring/guide/enrich-and-control-rum-data +[15]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum-core/src/rumEvent.types.ts +[16]: /ja/logs/log_configuration/attributes_naming_convention/#user-related-attributes +[17]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v4130 +[18]: /ja/data_security/real_user_monitoring/#browser-rum-use-of-cookies +[19]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage \ No newline at end of file diff --git a/content/ja/real_user_monitoring/browser/data_collected.md b/content/ja/real_user_monitoring/browser/data_collected.md index 09fb84be862db..3995c8054ced6 100644 --- a/content/ja/real_user_monitoring/browser/data_collected.md +++ b/content/ja/real_user_monitoring/browser/data_collected.md @@ -52,14 +52,14 @@ RUM ブラウザの[標準属性][1]の完全なリストをご覧ください ### セッションメトリクス -| メトリクス | Type | 説明 | +| メトリクス | タイプ | 説明 | |------------|--------|----------------------------| | `session.time_spent` | 数値(ns) | ユーザーセッションの期間。 | | `session.view.count` | 数値 | このセッションで収集されたすべてのビューの数。 | -| `session.error.count` | number | このセッションで収集されたすべてのエラーの数。 | +| `session.error.count` | 数値 | このセッションで収集されたすべてのエラーの数。 | | `session.resource.count` | 数値 | このセッションで収集されたすべてのリソースの数。 | | `session.action.count` | 数値 | このセッションで収集されたすべてのアクションの数。 | -| `session.long_task.count` | 数値 | Count of all long tasks collected for this session. | +| `session.long_task.count` | 数値 | このセッションで収集されたすべてのロングタスクの数。 | ### セッション属性 @@ -219,4 +219,4 @@ RUM ブラウザの[標準属性][1]の完全なリストをご覧ください [11]: /ja/real_user_monitoring/browser/collecting_browser_errors#error-sources [12]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming [13]: /ja/real_user_monitoring/browser/tracking_user_actions/?tab=npm#action-timing-metrics -[14]: /ja/real_user_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions +[14]: /ja/real_user_monitoring/browser/tracking_user_actions/?tab=npm#custom-actions \ No newline at end of file diff --git a/content/ja/real_user_monitoring/browser/frustration_signals.md b/content/ja/real_user_monitoring/browser/frustration_signals.md index 5343a64b8becf..59d8a72318dd8 100644 --- a/content/ja/real_user_monitoring/browser/frustration_signals.md +++ b/content/ja/real_user_monitoring/browser/frustration_signals.md @@ -32,6 +32,8 @@ RUM は 3 種類のフラストレーションシグナルを収集します。 エラークリック : JavaScript のエラーが発生する直前に、ユーザーがある要素をクリックした場合。 +フラストレーションシグナルを有効にすることで、Datadog はデフォルトで 3 つのシグナルタイプすべてを収集します。 + ## 要件 まず、ブラウザ RUM SDK バージョン >= 4.14.0 が必要です。 @@ -137,18 +139,14 @@ Frustration Count ## トラブルシューティング -### ユーザーがキーボードのキー (Delete など) を押したときに、なぜレイジクリックが作成されないのでしょうか? +### ユーザーがキーボードのキー (Delete など) を押したときに、レイジクリックが作成されていない フラストレーションシグナルは、キーボードのストロークではなく、マウスのクリックによって発生します。 -### サイドパネルに、セッションのフラストレーションシグナルの数がイベントタイムラインと異なることが表示されるのはなぜですか? +### サイドパネルに、セッションのフラストレーションシグナルの数がイベントタイムラインと異なることが表示されない セッションがライブの場合、情報を取得しているため、バナーにタイムラインと異なる数値が反映されることがあります。 -### 追跡するシグナルを選択することはできますか? - -フラストレーションシグナルを有効にすることで、Datadog はデフォルトで 3 つのシグナルタイプすべてを収集します。詳細については、[カスタマーサクセスマネージャー][10]にお問い合わせください。 - <div class="alert alert-warning"> フィードバックの提供や機能リクエストの提出は、<a href="/help/">Datadog サポート</a>にご連絡ください。 </div> @@ -166,4 +164,4 @@ Frustration Count [7]: https://app.datadoghq.com/rum/replay/sessions/ [8]: /ja/real_user_monitoring/session_replay/browser/ [9]: /ja/monitors/types/real_user_monitoring/ -[10]: mailto:success@datadoghq.com +[10]: mailto:success@datadoghq.com \ No newline at end of file diff --git a/content/ja/real_user_monitoring/browser/tracking_user_actions.md b/content/ja/real_user_monitoring/browser/tracking_user_actions.md index e1eb6bcab51aa..3fffb88e9353d 100644 --- a/content/ja/real_user_monitoring/browser/tracking_user_actions.md +++ b/content/ja/real_user_monitoring/browser/tracking_user_actions.md @@ -124,4 +124,4 @@ Datadog Browser SDK は、クリックアクション名を決定するために [3]: /ja/real_user_monitoring/browser/data_collected/#default-attributes [4]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2160 [5]: /ja/real_user_monitoring/guide/send-rum-custom-actions -[6]: /ja/real_user_monitoring/session_replay/privacy_options#mask-action-names +[6]: /ja/data_security/real_user_monitoring/#mask-action-names \ No newline at end of file diff --git a/content/ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/_index.md b/content/ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/_index.md new file mode 100644 index 0000000000000..1a0656ae95b21 --- /dev/null +++ b/content/ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/_index.md @@ -0,0 +1,27 @@ +--- +further_reading: +- link: https://github.com/DataDog/dd-sdk-android + tag: ソースコード + text: dd-sdk-android のソースコード +- link: https://github.com/DataDog/dd-sdk-ios + tag: ソースコード + text: dd-sdk-ios のソースコード +- link: https://github.com/DataDog/dd-sdk-flutter + tag: ソースコード + text: dd-sdk-flutter のソースコード +- link: https://github.com/DataDog/dd-sdk-reactnative + tag: ソースコード + text: dd-sdk-reactnative のソースコード +- link: https://github.com/DataDog/dd-sdk-roku + tag: ソースコード + text: dd-sdk-roku のソースコード +- link: /real_user_monitoring + tag: ドキュメント + text: Datadog RUM を探索する +title: 高度な構成 +type: multi-code-lang +--- + +RUM モニタリングの高度な構成については、プラットフォームを選択してください。 + +{{< partial name="rum/rum-getting-started-mobile-advanced.html" >}} \ No newline at end of file diff --git a/content/ja/security/application_security/_index.md b/content/ja/security/application_security/_index.md index 379f7547240bd..e7d6252c36d96 100644 --- a/content/ja/security/application_security/_index.md +++ b/content/ja/security/application_security/_index.md @@ -39,6 +39,9 @@ further_reading: - link: https://www.datadoghq.com/blog/aws-waf-datadog/ tag: ブログ text: Datadog を使用した AWS WAF のアクティビティの監視 +- link: https://www.datadoghq.com/blog/security-inbox-prioritization/ + tag: ブログ + text: Datadog Security Inbox によるセキュリティリスクの優先順位付け方法 title: Application Security Management --- @@ -68,7 +71,7 @@ Application Security Management がどのように構成され、トレースデ [独自の規則][4]を利用する ASM なら、手動でコンフィギュレーションをせずに脅威を検出できます。すでに Datadog [APM][1] を物理ホストまたは仮想ホストにすでに構成している場合、環境変数を 1 つ設定するだけですぐに開始できます。 -To start configuring your environment to detect and protect threats with ASM, follow the enabling documentation for each product. Once ASM is configured, you can begin investigating and remediating security signals in the [Security Signals Explorer][6]. +ASM を使用して脅威を検出し保護するために環境を構成し始めるには、各製品の有効化ドキュメントに従ってください。ASM の構成が完了したら、[Security Signals Explorer][6] でセキュリティシグナルの調査および修復を開始できます。 ## セキュリティシグナルの調査と修復 @@ -78,9 +81,9 @@ To start configuring your environment to detect and protect threats with ASM, fo [Software Composition Analysis (SCA)][8] は、サービスが、既知の脆弱性を持つオープンソースライブラリを使用している、またはそれに依存しているためにリスクにさらされている場合を示します。脆弱性の発見について調査し、修正アドバイスに従ったり、脆弱性の原因を研究したりすることで、ソフトウェアを安全に保護します。 -## Detect vulnerabilities in your application's code +## アプリケーションのコードの脆弱性を検出する -[Code Security][9] identifies code-level vulnerabilities in your services and provides actionable insights and recommended fixes. It uses an Interactive Application Security Testing (IAST) approach to find vulnerabilities within your application code. IAST uses instrumentation embedded in your code like application performance monitoring (APM) and it enables Datadog to identify vulnerabilities using legitimate application traffic instead of relying on external tests that could require extra configuration or periodic scheduling. +[Code Security][9] は、サービス内のコードレベルの脆弱性を特定し、実用的な洞察と修正の提案を提供します。アプリケーションコード内の脆弱性を検出するために、インタラクティブ・アプリケーション・セキュリティ・テスト (IAST) のアプローチを採用しています。IAST は、アプリケーションパフォーマンスモニタリング (APM) と同様にコード内に埋め込まれたインスツルメンテーションを利用して、追加の構成や定期的なスケジューリングを必要とする外部テストに依存することなく、Datadog が正規のアプリケーショントラフィックを使用して脆弱性を特定することを可能にします。 ## 次のステップ diff --git a/content/ja/security/application_security/how-appsec-works.md b/content/ja/security/application_security/how-appsec-works.md index 36714102f4b4c..ad01004ef35d5 100644 --- a/content/ja/security/application_security/how-appsec-works.md +++ b/content/ja/security/application_security/how-appsec-works.md @@ -11,137 +11,137 @@ title: Datadog におけるアプリケーションセキュリティの仕組 --- {{< site-region region="gov" >}} -<div class="alert alert-warning">Application Security Management is not supported for your selected <a href="/getting_started/site">Datadog site</a> ({{< region-param key="dd_site_name" >}}).</div> +<div class="alert alert-warning">選択した <a href="/getting_started/site">Datadog サイト</a> ({{< region-param key="dd_site_name" >}}) では、Application Security Management はサポートされていません。</div> {{< /site-region >}} -## Overview +## 概要 -Datadog Application Security provides observability into application-level attacks that aim to exploit code-level vulnerabilities or abuse the business logic of your application, and into any bad actors targeting your systems. +Datadog Application Security は、コードレベルの脆弱性を狙った攻撃やアプリケーションのビジネスロジックを悪用する攻撃、さらにシステムを標的とする悪意ある行為に対する可観測性を提供します。 -Here's a quick summary: +以下に簡単にまとめます。 -- **Observability into attacks**: Provides insight into application-level attacks targeting code vulnerabilities or business logic. -- **Risk detection**: Identifies risks in applications, such as vulnerable libraries and dependencies. -- **Trace-based monitoring**: Utilizes the same tracing libraries as Datadog APM to monitor traffic and detect security threats. -- **Security signals**: Automatically generates security signals when attacks or business logic abuses are detected, focusing on meaningful threats rather than individual attempts. -- **Notification Options**: Offers notifications through Slack, email, or PagerDuty based on security signal settings. -- **Embedded security**: Integrated within the application, providing better threat identification and classification by accessing trace data. -- **Enhanced WAF functionality**: Functions like a Web Application Firewall (WAF) but with additional application context, improving accuracy and reducing false positives. +- **攻撃の可観測性**: コードの脆弱性やビジネスロジックを標的とするアプリケーションレベルの攻撃に関する洞察を提供します。 +- **リスクの検出**: 脆弱なライブラリや依存関係など、アプリケーションにおけるリスクを特定します。 +- **トレースに基づくモニタリング**: Datadog APM と同じトレーシングライブラリを使用してトラフィックを監視し、セキュリティ脅威を検出します。 +- **セキュリティシグナル**: 攻撃やビジネスロジックの悪用が検出された際に、個々の試行ではなく、意味のある脅威に焦点を当ててセキュリティシグナルを自動的に生成します。 +- **通知オプション**: セキュリティシグナルの設定に基づいて、Slack、メール、または PagerDuty を通じて通知を行います。 +- **組み込みセキュリティ**: アプリケーションに統合され、トレースデータにアクセスすることで、より優れた脅威の識別と分類を可能にします。 +- **強化された WAF 機能**: 従来の Web Application Firewall (WAF) の機能に加え、アプリケーションのコンテキストを追加することで、精度が向上し、誤検知を減少させます。 -### Identify services exposed to application attacks +### アプリケーション攻撃にさらされているサービスの特定 -Datadog Application Security [Threat Management][1] uses the information APM is already collecting to flag traces containing attack attempts. While APM collects a sample of your application traffic, enabling Application Security in the tracing library is necessary to effectively monitor and protect your services. +Datadog Application Security [Threat Management][1] は、APM がすでに収集している情報を活用して、攻撃の試みを含むトレースを識別します。APM がアプリケーショントラフィックのサンプルを収集する一方で、サービスを効果的に監視および保護するには、トレーシングライブラリで Application Security を有効にすることが重要です。 -Services exposed to application attacks are highlighted directly in the security views embedded in APM ([Service Catalog][2], [Service Page][3], [Traces][4]). +アプリケーション攻撃にさらされているサービスは、APM に組み込まれたセキュリティビュー ([サービスカタログ][2]、[サービス詳細画面][3]、[トレース][4]) で直接ハイライトされます。 -Datadog Threat Monitoring and Detection identifies bad actors by collecting client IP addresses and manually-added user tags on all requests. +Datadog Threat Monitoring and Detection は、すべてのリクエストにおけるクライアント IP アドレスや手動で追加されたユーザータグを収集し、悪意のあるユーザーを特定します。 -<div class="alert alert-info"><strong>1-Click Enablement</strong><br> -If your service is running with <a href="/agent/remote_config/#enabling-remote-configuration">an Agent with Remote Configuration enabled and a tracing library version that supports it</a>, you can <a href="https://app.datadoghq.com/security/configuration/asm/setup">enable Application Security</a> from the Datadog UI without additional configuration of the Agent or tracing libraries.</div> +<div class="alert alert-info"><strong>1-Click 有効化</strong><br> +サービスが <a href="/agent/remote_config/#enabling-remote-configuration"> Remote Configuration が有効な Agent と、それをサポートするバージョンのトレーシングライブラリ</a>で実行されている場合、Agent または トレーシングライブラリの追加構成なしで Datadog UI から <a href="https://app.datadoghq.com/security/configuration/asm/setup">Application Security を有効にする</a>ことができます。</div> -### Identify vulnerabilities in open source libraries used by services +### サービスで使用されているオープンソースライブラリの脆弱性を特定 Datadog [Software Composition Analysis][5] は、オープンソースのソフトウェアライブラリに関連する様々な既知の脆弱性データソースと、Datadog のセキュリティリサーチチームから提供される情報を利用して、アプリケーションがランタイムに依存するライブラリとその潜在的脆弱性を照合し、改善策を提言します。 -### Identify code-level vulnerabilities in services +### サービスにおけるコードレベルの脆弱性を特定 -Datadog [Code Security][28] identifies code-level vulnerabilities in services and provides actionable insights and recommended fixes. It uses an Interactive Application Security Testing (IAST) approach to find vulnerabilities within application code. IAST uses instrumentation embedded in code, similar to Application Performance Monitoring (APM), enabling Datadog to identify vulnerabilities using legitimate application traffic rather than relying on external tests that may require extra configuration or periodic scheduling. Datadog Code Security automatically provides the information teams need to locate a vulnerability in an application, from the affected filename down to the exact method and line number. +Datadog [Code Security][28] は、サービス内のコードレベルの脆弱性を特定し、実用的な洞察と修正の提案を提供します。アプリケーションコード内の脆弱性を検出するために、インタラクティブ・アプリケーション・セキュリティ・テスト (IAST) のアプローチを採用しています。IAST は、Application Performance Monitoring (APM) と同様にコード内に埋め込まれたインスツルメンテーションを利用して、追加の構成や定期的なスケジューリングを必要とする外部テストに依存することなく、Datadog が正規のアプリケーショントラフィックを使用して脆弱性を特定することを可能にします。Datadog Code Security は、影響を受けたファイル名から正確なメソッドや行番号に至るまで、アプリケーション内の脆弱性を特定するために必要な情報を自動的に提供します。 -## Compatibility +## 互換性 -For Datadog Application Security to be compatible with your Datadog configuration, you must have APM enabled and [sending traces to Datadog][6]. Application Security uses the same libraries used by APM, so you don't need to deploy and maintain another library. +Datadog Application Security を Datadog の構成と互換性を持たせるためには、APM を有効にし、[Datadog にトレースを送信している][6]必要があります。Application Security は APM が使用するのと同じライブラリを使用するため、別のライブラリをデプロイして維持する必要はありません。 -Steps to enable Datadog Application Security are specific to each runtime language. Check to see if your language is supported in the Application Security prerequisites for each product. +Datadog Application Security を有効にするための手順は、ランタイム言語ごとに異なります。各製品の Application Security の前提条件で、お使いの言語がサポートされているかどうかを確認してください。 -## Serverless monitoring +## サーバーレスモニタリング -Datadog Application Security for AWS Lambda provides deep visibility into attackers targeting your functions. With distributed tracing providing a context-rich picture of the attack, you can assess the impact and remediate the threat effectively. +AWS Lambda 向け Datadog Application Security は、関数を標的としている攻撃者を詳細に視覚化します。攻撃に関する豊富な情報を提供する分散型トレーシングにより、影響を評価し、脅威に効果的に対処できます。 -Read [Enabling Application Security for Serverless][8] for information on setting it up. +セットアップに関する情報については、[サーバーレスのための Application Security の有効化][8]をお読みください。 -## Performance +## パフォーマンス -Datadog Application Security uses processes already contained in the Agent and APM, so there are negligible performance implications when using it. +Datadog Application Security は、Agent と APM にすでに含まれているプロセスを使用するため、使用する際のパフォーマンスへの影響はほとんどありません。 -When APM is enabled, the Datadog library generates distributed traces. Datadog Application Security flags security activity in traces by using known attack patterns. Correlation between the attack patterns and the execution context provided by the distributed trace triggers security signals based on detection rules. +APM が有効な場合、Datadog ライブラリは分散型トレースを生成します。Datadog Application Security は、既知の攻撃パターンを使用して、トレース内のセキュリティアクティビティにフラグを立てます。攻撃パターンと分散型トレースで提供される実行コンテキストを相関させることで、検出ルールに基づいてセキュリティシグナルをトリガーします。 -{{< img src="security/application_security/How_Appsec_Works_June2023.png" alt="A diagram illustrates that the Datadog tracer library operates at the application service level and sends traces to the Datadog backend. The Datadog backend flags actionable security signals and sends a notification to the relevant application, such as PagerDuty, Jira or Slack." >}} +{{< img src="security/application_security/How_Appsec_Works_June2023.png" alt="Datadog トレーサーライブラリは、アプリケーションサービスレベルで動作し、Datadog バックエンドにトレースを送信することを図解しています。Datadog バックエンドは、対処可能なセキュリティシグナルにフラグを立て、PagerDuty、Jira、Slack などの関連アプリケーションに通知を送信します。" >}} -## Data sampling and retention +## データのサンプリングと保持 -In the tracing library, Datadog Application Security collects all traces that include security data. A default [retention filter][9] ensures the retention of all security-related traces in the Datadog platform. +トレーシングライブラリでは、Datadog Application Security は、セキュリティデータを含むすべてのトレースを収集します。デフォルトの[保持フィルター][9]は、Datadog プラットフォームですべてのセキュリティ関連トレースが保持されることを保証します。 -Data for security traces is kept for 90 days. The underlying trace data is kept for 15 days. +セキュリティトレースのデータは、90 日間保存されます。基礎となるトレースデータは 15 日間保存されます。 -## Data privacy +## データプライバシー -By default, Application Security collects information from security traces to help you understand why the request was flagged as suspicious. Before sending the data, Application Security scans it for patterns and keywords that indicate that the data is sensitive. If the data is deemed sensitive, it is replaced with a `<redacted>` flag. This indicates that the request was suspicious, but that the request data could not be collected because of data security concerns. +デフォルトでは、Application Security はセキュリティトレースから情報を収集し、そのリクエストが疑わしいと判定された理由を理解するのに役立ちます。データを送信する前に、Application Security はデータが機密であることを示すパターンとキーワードをスキャンします。データが機密であると判断された場合、それは `<redacted>` フラグに置き換えられます。これは、リクエストは疑わしいが、データセキュリティの懸念からリクエストデータを収集できなかったことを示します。 -Here are some examples of data that is flagged as sensitive by default: -* `pwd`, `password`, `ipassword`, `pass_phrase` +ここでは、デフォルトで機密としてフラグが立てられるデータの例をいくつか紹介します。 +* `pwd`、`password`、`ipassword`、`pass_phrase` * `secret` -* `key`, `api_key`, `private_key`, `public_key` +* `key`、`api_key`、`private_key`、`public_key` * `token` -* `consumer_id`, `consumer_key`, `consumer_secret` -* `sign`, `signed`, `signature` +* `consumer_id`、`consumer_key`、`consumer_secret` +* `sign`、`signed`、`signature` * `bearer` * `authorization` * `BEGIN PRIVATE KEY` * `ssh-rsa` -To configure the information redacted by Application Security, refer to the [data security configuration][17] +Application Security で編集される情報を構成するには、[データセキュリティ構成][17]を参照してください。 -## Threat detection methods +## 脅威の検出方法 -Datadog uses multiple pattern sources, including the [OWASP ModSecurity Core Rule Set][12] to detect known threats and vulnerabilities in HTTP requests. When an HTTP request matches one of [the OOTB detection rules][13], a security signal is generated in Datadog. +Datadog は、[OWASP ModSecurity Core Rule Set][12] を含む複数のパターン提供ソースを使用して、HTTP リクエストにおける既知の脅威と脆弱性を検出します。HTTP リクエストが[すぐに使える検出ルール][13]のいずれかにマッチすると、Datadog 内にセキュリティシグナルが生成されます。 -**Automatic Threat Patterns Updates:** If your service is running with [an Agent with Remote Configuration enabled and a tracing library version that supports it][26] , the threat patterns being used to monitor your service are automatically updated whenever Datadog publishes updates. +**脅威パターンの自動更新:** サービスが[リモート構成を有効にした Agent とそれをサポートするトレーシングライブラリのバージョン][26]で実行されている場合、サービスの監視に使用される脅威パターンは、Datadog がアップデートを公開するたびに自動で更新されます。 -Security Signals are automatically created when Datadog detects meaningful attacks targeting your production services. It provides you with visibility on the attackers and the targeted services. You can set custom detection rules with thresholds to determine which attacks you want to be notified about. +セキュリティシグナルは、Datadog が本番サービスを標的とした重要な攻撃を検出すると、自動的に作成されます。これにより、攻撃者や標的とされたサービスに対する可視性を提供します。しきい値を用いたカスタム検出ルールを設定して、どの攻撃について通知を受けたいかを決定することができます。 -## Built-in protection +## 内蔵保護機能 {{% asm-protect %}} -## Attack attempt qualification +## 攻撃試行の分類 -Leveraging distributed tracing information, attacks attempts are qualified as safe, unknown, or harmful. -* Attack attempts qualified as safe cannot breach your application, for example, when a PHP injection attack targets a service written in Java. -* An unknown qualification is decided when there is not enough information to make a definitive judgement about the attack's probability of success. -* A harmful qualification is highlighted when there is evidence that a code level vulnerability has been found by the attacker. +分散トレーシング情報を利用して、攻撃の試みは安全、不明、または有害として評価されます。 +* 例えば、PHP インジェクション攻撃が Java で書かれたサービスを標的としている場合のように、安全と分類された攻撃試行はアプリケーションを侵害することはできません。 +* 未知の評価は、攻撃が成功する確率について確定的な判断を下すのに十分な情報がない場合に与えられます。 +* コードレベルの脆弱性が攻撃者によって発見された証拠がある場合、有害の評価がハイライトされます。 -## Threat monitoring coverage +## 脅威の監視範囲 -Datadog Application Security includes over 100 attack signatures that help protect against [many different kinds of attacks][14], including, but not limited to, the following categories: +Datadog Application Security には、以下のカテゴリーを含むがこれに限られない、[多くの異なる種類の攻撃][14]から保護するのに役立つ 100 以上の攻撃シグネチャーが含まれています。 -* SQL injections -* Code injections -* Shell injections -* NoSQL injections -* Cross-Site Scripting (XSS) -* Server-side Request Forgery (SSRF) +* SQL インジェクション +* コードインジェクション +* シェルインジェクション +* NoSQL インジェクション +* クロスサイトスクリプティング (XSS) +* サーバーサイドリクエストフォージェリー (SSRF) -## Built-in vulnerability detection +## 内蔵の脆弱性検出 -Datadog Application Security offers built-in detection capabilities that warn you about the vulnerabilities detected in your application code and open source dependencies. Details of that information are shown in the [Vulnerability Explorer][15], identifying the severity, affected services, potentially vulnerable infrastructure, and remediation instructions to solve the surfaced risks. +Datadog Application Security には、アプリケーションコードおよびオープンソース依存部分で検出された脆弱性について警告する検出機能が組み込まれています。その情報の詳細は、[Vulnerability Explorer][15] に表示され、重大度、影響を受けるサービス、潜在的に脆弱なインフラストラクチャー、および表面化したリスクを解決するための改善手順が特定されます。 -For more information, read [Code Security][28] and [Software Composition Analysis][5]. +詳しくは、[Code Security][28] および [Software Composition Analysis][5] をお読みください。 -## API security +## API セキュリティ -<div class="alert alert-info">API security is in private beta.</div> +<div class="alert alert-info">API セキュリティは非公開ベータ版です。</div> -Datadog Application Security provides visibility into threats targeting your APIs. Use the [API Catalog][27] to monitor API health and performance metrics, where you can view attacks targeting your APIs. This view includes the attacker's IP and authentication information, as well as request headers showing details about how the attack was formed. Using both Application Security and API management, you can maintain a comprehensive view of your API attack surface, and respond to mitigate threats. +Datadog Application Security は、API を標的とした脅威を視覚化します。[API カタログ][27]を使用して API の健全性とパフォーマンスのメトリクスを監視します。ここでは、API を標的とした攻撃を表示することができます。このビューには、攻撃者の IP と認証情報のほか、攻撃がどのように形成されたかの詳細を示すリクエストヘッダーが含まれます。Application Security と API 管理の両方を使用することで、API 攻撃対象の包括的なビューを維持し、そして脅威を緩和する対応を行うことができます。 -## How Datadog Application Security protects against Log4Shell +## Datadog アプリケーションセキュリティによる Log4Shell の保護方法 -Datadog Application Security identifies Log4j Log4Shell attack payloads and provides visibility into vulnerable apps that attempt to remotely load malicious code. When used in tandem with the rest of [Datadog's Cloud SIEM][16], you can investigate to identify common post-exploitation activity, and proactively remediate potentially vulnerable Java web services acting as an attack vector. +Datadog Application Security は、Log4j Log4Shell 攻撃ペイロードを識別し、悪意のあるコードをリモートでロードしようとする脆弱なアプリを可視化します。[Datadog の Cloud SIEM][16] の他の機能と組み合わせて使用することで、一般的なエクスプロイト後のアクティビティを特定して調査し、攻撃ベクトルとして機能する可能性のある脆弱な Java Web サービスをプロアクティブに修正することができます。 -## Further Reading +## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/synthetics/api_tests/icmp_tests.md b/content/ja/synthetics/api_tests/icmp_tests.md index c95cbf77aab7b..fa1bdf3988ee8 100644 --- a/content/ja/synthetics/api_tests/icmp_tests.md +++ b/content/ja/synthetics/api_tests/icmp_tests.md @@ -53,7 +53,7 @@ ICMP テストは、ネットワークの外部または内部のどちらから アサーションは、期待されるテスト結果が何であるかを定義します。**Test URL** をクリックすると、`latency`、`packet loss`、`packet received` の基本的なアサーションが追加されます。テストで監視するには、少なくとも 1 つのアサーションを定義する必要があります。 -| タイプ | 集計 |演算子 | Value Type | +| タイプ | 集計 |演算子 | 値の型 | |-----------------|----------------|------------------------------------------------------------------------|------------------| | レイテンシー | `avg`、`max`、`min` または `stddev` (別名 `jitter`) |`is less than`、`is less than or equal`、<br> `is`、`is more than`、`is more than or equal` | 整数 (ms) | | パケットロス | - |`is less than`、`is less than or equal`、`is`、`is more than`、`is more than or equal` | パーセント (%) | @@ -72,7 +72,7 @@ ICMP テストは、ネットワークの外部または内部のどちらから ICMP テストを実行する**ロケーション**を選択します。ICMP テストは、ネットワークの外部または内部のどちらから ICMP ping をトリガーするかの好みによって、管理ロケーションと[プライベートロケーション][1]の両方から実行できます。 -{{% managed-locations %}} +{{% managed-locations %}} ### テストの頻度を指定する @@ -129,4 +129,4 @@ ICMP テストの URL およびアサーションで、[**Settings** ページ [8]: /ja/synthetics/settings/#global-variables [9]: /ja/account_management/rbac/ [10]: /ja/account_management/rbac#custom-roles -[11]: /ja/account_management/rbac/#create-a-custom-role +[11]: /ja/account_management/rbac/#create-a-custom-role \ No newline at end of file diff --git a/content/ja/synthetics/browser_tests/_index.md b/content/ja/synthetics/browser_tests/_index.md index 88fd7a77f58e5..29fbc90eae01c 100644 --- a/content/ja/synthetics/browser_tests/_index.md +++ b/content/ja/synthetics/browser_tests/_index.md @@ -37,7 +37,7 @@ title: ブラウザテスト 1. **Starting URL** を入力します。ブラウザテストがシナリオを開始する URL です。 - <div class="alert alert-info">See <a href=#advanced-options>Advanced options</a> for more options.</div> + <div class="alert alert-info">その他のオプションについては、<a href=#advanced-options>高度なオプション</a>をご覧ください。</div> 2. **名前**を追加します。ブラウザテストの名前です。 3. **環境と追加タグ**を選択します。ブラウザのテストにアタッチされる `env` と関連するタグを設定します。与えられた `<KEY>` に対する `<VALUE>` をフィルタリングするには、`<KEY>:<VALUE>` という形式を使用します。 @@ -57,13 +57,13 @@ title: ブラウザテスト {{< tabs >}} - {{% tab "Request Options" %}} + {{% tab "リクエストオプション" %}} - Select **Disable CORS** to prevent the cross-origin resource sharing (CORS) policy from blocking your test. To prevent the Content Security Policy (CSP) from blocking your test, select **Disable CSP**. + クロスオリジンリソース共有 (CORS) ポリシーがテストをブロックするのを防ぐには、**Disable CORS** を選択します。コンテンツセキュリティポリシー (CSP) がテストをブロックするのを防ぐには、**Disable CSP** を選択します。 * **Request Headers**: **Name** および **Value* フィールドでヘッダーを定義して、デフォルトのブラウザヘッダーに追加またはオーバーライドします。たとえば、ヘッダーに User Agent を設定して、[Datadog スクリプトを識別][1]できます。 * **Cookies**: ブラウザのデフォルトのクッキーに追加するクッキーを定義します。1 行に 1 つのクッキーを入力し、[`Set-Cookie`][2] の構文を使用します。 - * **HTTP Authentication**: Authenticate through HTTP Basic, Digest, or NTLM with a username and a password. Your credentials are used in every step of your browser test. **Note**: Authentication through HTTP Basic can be used for websites that request user credentials through a browser system prompt. + * **HTTP Authentication**: HTTP Basic、Digest または NTLM を使用し、ユーザー名とパスワードで認証を行います。資格情報は、ブラウザテストのすべてのステップで使用されます。**注**: HTTP Basic 認証は、ブラウザのシステムプロンプトでユーザー資格情報をリクエストする Web サイトで使用できます。 リクエストオプションは、テストの実行ごとに設定され、記録時ではなく、実行時にブラウザテストのすべてのステップに適用されます。次の手順を記録するためにこれらのオプションをアクティブのままにしておく必要がある場合は、記録元のページにオプションを手動で適用し、テストの後続の手順を作成します。 @@ -107,9 +107,9 @@ title: ブラウザテスト {{% /tab %}} - {{% tab "Time & Language" %}} + {{% tab "時間と言語" %}} - By default, timezone is set to UTC, and language is set to English (en). To define a language, use the corresponding 2 or 3 digit [ISO code][19]. + デフォルトでは、タイムゾーンは UTC に、言語は英語 (en) に設定されています。言語を定義するには、2 桁または 3 桁の [ISO コード][19]を使用します。 {{% /tab %}} {{< /tabs >}} @@ -153,7 +153,7 @@ title: ブラウザテスト | `{{^is_alert}}` | モニターがアラートを発しない限り表示します。 | | `{{#is_recovery}}` | モニターが `alert` から回復したときに表示します。 | | `{{^is_recovery}}` | モニターが `alert` から回復しない限り表示します。 | - | `{{#is_renotify}}` | Show when the monitor renotifies. | + | `{{#is_renotify}}` | モニターが再通知したときに表示します。 | | `{{^is_renotify}}` | モニターが再通知しない限り表示します。 | | `{{#is_priority}}` | モニターが優先順位 (P1~P5) に一致したときに表示します。 | | `{{^is_priority}}` | モニターが優先順位 (P1~P5) に一致しない限り表示します。 | diff --git a/content/ja/synthetics/guide/synthetic-test-monitors.md b/content/ja/synthetics/guide/synthetic-test-monitors.md index c56ae7b1a483d..18fa3f640a353 100644 --- a/content/ja/synthetics/guide/synthetic-test-monitors.md +++ b/content/ja/synthetics/guide/synthetic-test-monitors.md @@ -17,8 +17,6 @@ title: Synthetic テストモニターを利用する Synthetic テストを作成すると、Datadog は自動的に関連するモニターを作成します。Synthetic テストのモニターがアラートを発する際の通知を設定することができます。 -{{< img src="synthetics/guide/synthetics_test_monitors/synthetic_test_monitor.png" alt="Synthetic テストモニター" style="width:100%;">}} - ## Synthetic テストモニターの作成 <div class="alert alert-info"><a href="/monitors/">モニター</a>で Synthetic テストモニターを作成またはインポートすることはできません。</div> diff --git a/content/ja/tracing/guide/apm_dashboard.md b/content/ja/tracing/guide/apm_dashboard.md index 695453f65371f..2ac154f57825f 100644 --- a/content/ja/tracing/guide/apm_dashboard.md +++ b/content/ja/tracing/guide/apm_dashboard.md @@ -35,7 +35,7 @@ Datadog APM では、ビジネスの優先順位と重要なメトリクスに {{< img src="tracing/guide/apm_dashboard/dashboard_2_cropped.png" alt="ダッシュボード 2" style="width:90%;">}} -3. **Click on `View Dashboard`** in the success message. +3. 成功メッセージの **`View Dashboard` をクリック**します。 新しいダッシュボードでは、`web-store` サービスの `Hit/error count on service` グラフが利用可能になりました。このサービスのスループット全体とエラーの合計量が表示されます。 @@ -57,7 +57,7 @@ Datadog APM では、ビジネスの優先順位と重要なメトリクスに {{< img src="tracing/guide/apm_dashboard/dashboard_4.mp4" video="true" alt="ダッシュボード 4" style="width:90%;">}} - This specific breakdown is just one example of the many can choose. It is important to note that any metric that starts with `trace.` contains APM information. See the [APM metric documentation to learn more][3]. + この具体的な内訳は、選択できる多くの一例にすぎません。`trace.` で始まるメトリクスには APM 情報が含まれることに注意することが重要です。[詳細については、APM メトリクスのドキュメント][3]を参照してください。 6. **別の時系列をプレースホルダータイルにドラッグします** @@ -107,7 +107,7 @@ Datadog APM では、ビジネスの優先順位と重要なメトリクスに {{< img src="tracing/guide/apm_dashboard/dashboard_add_template_variable_cropped.png" alt="変数名と変数タグを追加するフィールドオプションを表示する Add Variable ポップオーバー" style="width:90%;">}} - You can now add this template variable to each of the graphs: + これで、このテンプレート変数を各グラフに追加できます。 {{< img src="tracing/guide/apm_dashboard/dashboard_dynamic_template_variable.png" alt="クエリに動的テンプレート変数を追加します。この例では、'$RG' を地域テンプレート変数に動的にスコープしています" style="width:90%;">}} diff --git a/content/ja/tracing/troubleshooting/_index.md b/content/ja/tracing/troubleshooting/_index.md index 3a14c67a829c5..35d500119bf4e 100644 --- a/content/ja/tracing/troubleshooting/_index.md +++ b/content/ja/tracing/troubleshooting/_index.md @@ -1,10 +1,10 @@ --- algolia: tags: - - apm issues + - apm 問題 - apm faq - - tracing troubleshooting - - apm common issues + - トレーシング トラブルシューティング + - apm よくある問題 aliases: - /ja/tracing/faq/my-trace-agent-log-renders-empty-service-error/ - /ja/tracing/troubleshooting/faq_apm/ @@ -23,10 +23,10 @@ further_reading: text: Datadog Agent によって送信された APM メトリクス - link: /tracing/trace_pipeline/trace_retention/#create-your-own-retention-filter tag: ドキュメント - text: Custom retention filter + text: カスタム保持フィルター - link: /tracing/trace_pipeline/ingestion_mechanisms/?tab=java tag: ドキュメント - text: Trace Ingestion Sampling + text: トレース取り込みサンプリング - link: /tracing/troubleshooting/#data-volume-guidelines tag: ドキュメント text: データボリュームガイドライン @@ -35,85 +35,85 @@ further_reading: text: Datadog の全インテグレーション一覧 - link: /tracing/guide/inferred-service-opt-in/ tag: ドキュメント - text: Inferred Service dependencies (beta) + text: 推測されたサービス依存関係 (ベータ版) title: APM トラブルシューティング --- -If you experience unexpected behavior while using Datadog APM, read the information on this page to help resolve the issue. Datadog recommends regularly updating to the latest version of the Datadog tracing libraries you use, as each release contains improvements and fixes. If you continue to experience issues, reach out to [Datadog support][1]. +Datadog APM を使用中に予期しない動作が発生した場合は、問題解決に役立つ情報をこのページで確認してください。各リリースには改善や修正が含まれているため、Datadog では使用している Datadog トレーシングライブラリの最新バージョンへの定期的な更新を推奨しています。問題が引き続き発生する場合は、[Datadog サポート][1]に連絡してください。 APM データを Datadog に送信する際には、以下のコンポーネントが関与します。 -{{< img src="tracing/troubleshooting/troubleshooting_pipeline_info_1.png" alt="APM Troubleshooting Pipeline">}} +{{< img src="tracing/troubleshooting/troubleshooting_pipeline_info_1.png" alt="APM トラブルシューティングパイプライン">}} -For more information, see [Additional support](#additional-support). +詳細については、[追加サポート](#additional-support)を参照してください。 ## トレースの保持 -This section addresses issues related to trace data retention and filtering across Datadog. +このセクションでは、Datadog 全体におけるトレースデータの保持とフィルタリングに関する問題について説明します。 -{{% collapse-content title="There are more spans in the Trace Explorer than on the Monitors page" level="h4" %}} +{{% collapse-content title="Trace Explorer に Monitors ページよりも多くのスパンが表示される" level="h4" %}} -If you haven't set up [custom retention filters][19], this is expected behavior. Here's why: +[カスタム保持フィルター][19]をセットアップしていない場合、これは想定された動作です。その理由は以下の通りです。 -The [Trace Explorer][20] page allows you to search all ingested or indexed spans using any tag. Here, you can query any of your traces. +[Trace Explorer][20] ページでは、取り込まれたスパンやインデックス化されたスパンを任意のタグを使って検索できます。ここで任意のトレースをクエリすることが可能です。 -By default, after spans have been ingested, they are retained by the [Datadog intelligent filter][21]. Datadog also has other [retention filters][22] that are enabled by default to give you visibility over your services, endpoints, errors, and high-latency traces. +デフォルトでは、スパンは取り込まれた後、[Datadog インテリジェントフィルター][21]によって保持されます。Datadog には、デフォルトで有効になっている他の[保持フィルター][22]もあり、サービスやエンドポイント、エラー、遅延の大きいトレースに対する可視性を提供します。 -However, to use these traces in your monitors, you must set [custom retention filters][19]. +ただし、これらのトレースをモニターで使用するには、[カスタム保持フィルター][19]を設定する必要があります。 -Custom retention filters allow you to decide which spans are indexed and [retained][23] by creating, modifying, and disabling additional filters based on tags. You can also set a percentage of spans matching each filter to be retained. These indexed traces can then be used in your monitors. +カスタム保持フィルターを使用すると、タグに基づいて追加のフィルターを作成、変更、無効化し、どのスパンがインデックス化および[保持][23]されるかを決定できます。また、各フィルターに一致するスパンの保持率を設定することも可能です。その後、インデックス化されたこれらのトレースはモニターで使用できます。 -| PRODUCT | SPAN SOURCE | +| 製品 | スパンソース | |--------------------------------------------------------|------------------------------------------------------------------| -| モニター | Spans from custom retention filters | -| Other products <br> <i> (Dashboard, Notebook etc.)</i> | Spans from custom retention filters + Datadog intelligent filter | +| モニター | カスタム保持フィルターからのスパン | +| その他の製品 <br><i>(ダッシュボード、ノートブックなど)</i> | カスタム保持フィルター + Datadog インテリジェントフィルターからのスパン | {{% /collapse-content %}} ## トレースメトリクス -This section covers troubleshooting discrepancies and inconsistencies with trace metrics. +このセクションでは、トレースメトリクスにおける不一致や不整合のトラブルシューティングについて説明します。 -{{% collapse-content title="Trace metrics and custom span-based metrics have different values" level="h4" %}} +{{% collapse-content title="トレースメトリクスとカスタムスパンベースのメトリクスが異なる値を持つ" level="h4" %}} -Trace metrics and custom span-based metrics can have different values because they are calculated based on different datasets: +トレースメトリクスとカスタムスパンベースのメトリクスは、異なるデータセットに基づいて計算されるため、異なる値を持つことがあります。 -- [Trace metrics][24] are calculated based on 100% of the application's traffic, regardless of your [trace ingestion sampling][25] configuration. The trace metrics namespace follows this format: `trace.<SPAN_NAME>.<METRIC_SUFFIX>`. -- [Custom span-based metrics][26] are generated based on your ingested spans, which depend on your [trace ingestion sampling][25]. For example, if you are ingesting 50% of your traces, your custom span-based metrics are based on the 50% ingested spans. +- [トレースメトリクス][24]は、[トレース取り込みサンプリング][25]の構成に関係なく、アプリケーションのトラフィックの 100% に基づいて計算されます。トレースメトリクスのネームスペースは次の形式に従います: `trace.<SPAN_NAME>.<METRIC_SUFFIX>`。 +- [カスタムスパンベースのメトリクス][26]は、取り込まれたスパンに基づいて生成されます。これらのスパンは、[トレース取り込みサンプリング][25]の設定によって異なります。例えば、トレースの 50% を取り込んでいる場合、カスタムスパンベースのメトリクスは取り込まれた 50% のスパンに基づきます。 -To ensure that your trace metrics and custom span-based metrics have the same value, configure a 100% ingestion rate for your application or service. +トレースメトリクスとカスタムスパンベースのメトリクスの値を一致させるためには、アプリケーションまたはサービスに対して 100% の取り込み率を構成する必要があります。 -<div class="alert alert-info">Metric names must follow the <a href="/metrics/custom_metrics/#naming-custom-metrics">metric naming convention</a>. Metric names that start with <code>trace.*</code> are not permitted and are not saved.</div> +<div class="alert alert-info">メトリクス名は、<a href="/metrics/custom_metrics/#naming-custom-metrics">メトリクス命名規則</a>に従う必要があります。<code>trace.*</code> で始まるメトリクス名は許可されず、保存されません。</div> {{% /collapse-content %}} ## サービス -This section covers strategies to troubleshoot service-related issues. +このセクションでは、サービスに関連する問題のトラブルシューティング方法について説明します。 -{{% collapse-content title="One service is showing up as multiple services in Datadog" level="h4" %}} +{{% collapse-content title="Datadog で 1 つのサービスが複数のサービスとして表示される" level="h4" %}} -This can happen when the service name is not consistent across all spans. +これは、すべてのスパンでサービス名が一貫していない場合に発生する可能性があります。 -For example, you might have a single service such as `service:test` showing multiple services in the Datadog: +例えば、`service:test` という単一のサービスが Datadog で以下の複数のサービスとして表示される場合が考えられます。 - `service:test` - `service:test-mongodb` - `service:test-postgresdb` -You can use [Inferred Service dependencies (beta)][30]. Inferred external APIs use the default naming scheme `net.peer.name`. For example: `api.stripe.com`, `api.twilio.com`, and `us6.api.mailchimp.com`. Inferred databases use the default naming `scheme db.instance`. +[推測されたサービス依存関係 (ベータ版)][30] を使用できます。推測された外部 API は、デフォルトの命名スキーム `net.peer.name` を使用します。例えば、`api.stripe.com`、`api.twilio.com`、`us6.api.mailchimp.com` などです。推測されたデータベースは、デフォルトの命名スキーム `db.instance` を使用します。 -Or, you can merge the service names using an environment variable such as `DD_SERVICE_MAPPING` or `DD_TRACE_SERVICE_MAPPING`, depending on the language. +または、`DD_SERVICE_MAPPING` や `DD_TRACE_SERVICE_MAPPING` などの環境変数を使用して、サービス名をマージすることもできます (言語に応じて異なります)。 -For more information, see [Configure the Datadog Tracing Library][27] or choose your language here: +詳細は、[Datadog トレーシングライブラリの構成][27]を参照するか、またはこちらで使用する言語を選択してください。 {{< tabs >}} {{% tab "Java" %}} `dd.service.mapping` -: **Environment Variable**: `DD_SERVICE_MAPPING`<br> -**Default**: `null`<br> -**Example**: `mysql:my-mysql-service-name-db, postgresql:my-postgres-service-name-db`<br> -Dynamically rename services with configuration. Useful for making databases have distinct names across different services. +: **環境変数**: `DD_SERVICE_MAPPING`<br> +**デフォルト**: `null`<br> +**例**: `mysql:my-mysql-service-name-db, postgresql:my-postgres-service-name-db`<br> +構成でサービス名を動的に変更します。異なるサービス間でデータベースに異なる名前を付ける場合に便利です。 {{% /tab %}} @@ -151,15 +151,15 @@ Dynamically rename services with configuration. Useful for making databases have `DD_SERVICE_MAPPING` : **INI**: `datadog.service_mapping`<br> -**Default**: `null`<br> -Change the default name of an APM integration. Rename one or more integrations at a time, for example: `DD_SERVICE_MAPPING=pdo:payments-db,mysqli:orders-db` (see [Integration names][1000]). +**デフォルト**: `null`<br> +APM インテグレーションのデフォルト名を変更します。例えば、`DD_SERVICE_MAPPING=pdo:payments-db,mysqli:orders-db` のように、1つまたは複数のインテグレーションを一度に名前変更します ([インテグレーション名][1000]を参照してください)。 [1000]: https://docs.datadoghq.com/ja/tracing/trace_collection/library_config/php#integration-names {{% /tab %}} {{% tab "Ruby" %}} -Ruby does not support `DD_SERVICE_MAPPING` or `DD_TRACE_SERVICE_MAPPING`. See [Additional Ruby configuration][2000] for code options to change the service name. +Ruby は `DD_SERVICE_MAPPING` または `DD_TRACE_SERVICE_MAPPING` をサポートしていません。サービス名を変更するためのコードオプションについては、[追加の Ruby 構成][2000]を参照してください。 [2000]: https://docs.datadoghq.com/ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby/#advanced-configuration @@ -168,52 +168,52 @@ Ruby does not support `DD_SERVICE_MAPPING` or `DD_TRACE_SERVICE_MAPPING`. See [A {{% /collapse-content %}} -{{% collapse-content title="There is an unexpected increase in ingested/indexed spans on the Plan and Usage page" level="h4" %}} +{{% collapse-content title="Plan and Usage ページで取り込まれたスパン/インデックス化されたスパンが予期せず増加している" level="h4" %}} -Spikes in data ingestion and indexing can be caused by various factors. To investigate the cause of an increase, use the [APM Traces Estimated Usage metrics][31]: +データの取り込みやインデックス化の急増は、さまざまな要因によって引き起こされることがあります。増加の原因を調査するには、[APM トレース推定使用量メトリクス][31]を使用してください。 -| USAGE TYPE | METRIC | 説明 | +| 使用量タイプ | メトリクス | 説明 | | ------- | ------------ |------------ | | APM インデックス化スパン | `datadog.estimated_usage.apm.indexed_spans` | タグ付ベースの保持フィルターによってインデックス化されたスパンの総数。| | APM 取り込みスパン | `datadog.estimated_usage.apm.ingested_spans`| 取り込みスパンの総数。 | -The [APM Traces Usage dashboard][28] contains several widget groups displaying high-level KPIs and additional usage information. +[APM Traces Usage ダッシュボード][28]には、大まかな KPI と追加の使用情報を表示する複数のウィジェットグループが含まれています。 {{% /collapse-content %}} -{{% collapse-content title="Missing error message and stack trace" level="h4" %}} +{{% collapse-content title="エラーメッセージとスタックトレースが欠落している" level="h4" %}} -In some traces with an error status, the **Errors** tab shows `Missing error message and stack trace` rather than exception details. +エラーステータスを持つ一部のトレースでは、**Errors** タブに例外の詳細ではなく `Missing error message and stack trace` (エラーメッセージとスタックトレースが欠落している) と表示されます。 -A span can show this message for two possible reasons: -- The span contains an unhandled exception. -- An HTTP response within the span returned an HTTP status code between 400 and 599. +スパンがこのメッセージを表示する理由は、以下の 2 つが考えられます。 +- スパンが未処理の例外を含んでいる。 +- スパン内の HTTP レスポンスが 400 から 599 の間の HTTP ステータスコードを返した。 -When an exception is handled in a try/catch block, `error.msg`, `error.type`, and `error.stack` span tags are not populated. To populate the detailed error span tags, use [Custom Instrumentation][18] code. +try/catch ブロックで例外が処理される場合、`error.message`、`error.type`、および `error.stack` スパンタグは設定されません。詳細なエラースパンタグを設定するには、[カスタムインスツルメンテーション][18]コードを使用します。 {{% /collapse-content %}} ## データボリュームガイドライン -If you encounter any of the following issues, you may be exceeding [Datadog's volume guidelines][29]: +以下の問題が発生している場合、[Datadog の容量ガイドライン][29]を超過している可能性があります。 -- Your trace metrics are not reporting as you would expect in the Datadog platform. -- You are missing some of your resources that you expected to see in the Datadog platform. -- You are seeing traces from your service but are not able to find this service on the [Service Catalog page][32]. +- Datadog プラットフォームで、トレースメトリクスが期待通りにレポートされていない。 +- Datadog プラットフォームで、期待通りに表示されるはずのリソースの一部が表示されていない。 +- サービスからのトレースは表示されているが、[サービスカタログページ][32]でこのサービスを見つけることができない。 -{{% collapse-content title="Data volume guidelines" level="h4" %}} +{{% collapse-content title="データ容量のガイドライン" level="h4" %}} インスツルメント済みのアプリケーションは、現時点から最大過去18時間および未来2時間までのタイムスタンプのスパンを送信できます。 -Datadog accepts the following combinations for a given 40-minute interval: +Datadog は、40 分間隔で以下の組み合わせを受け入れます。 -- 1000 unique `environments` and `service` combinations -- 30 unique `second primary tag values` per environment -- 100 unique `operation names` per environment and service -- 1000 unique `resources` per environment, service, and operation name -- 30 unique `versions` per environment and service +- 1000 個の一意な `環境` と `サービス` の組み合わせ +- 環境ごとに 30 個の一意な `秒単位のプライマリタグ値` +- 環境およびサービスごとに 100 個の一意な `オペレーション名` +- 環境、サービス、および操作名ごとに 1000 個の一意な `リソース` +- 環境およびサービスごとに 30 個の一意な `バージョン` -If you need to accommodate larger volumes, contact [Datadog support][1] with your use case. +より大きな容量に対応する必要がある場合は、[Datadog サポート][1]に連絡してユースケースを伝えてください。 Datadog では、以下の文字列が指定された文字数を超えた場合、切り捨てられます。 @@ -230,7 +230,7 @@ Datadog では、以下の文字列が指定された文字数を超えた場合 {{% /collapse-content %}} -{{% collapse-content title="The number of services exceeds what is specified in the data volume guidelines" level="h4" %}} +{{% collapse-content title="サービスの数がデータ容量のガイドラインで指定された数を超えている" level="h4" %}} サービス数が[データ量ガイドライン](#data-volume-guidelines)で指定されている数を超える場合は、サービスの命名規則について以下のベストプラクティスを試してみてください。 @@ -258,31 +258,31 @@ Datadog では、サービス名を変更することでインスツルメンテ 第 2 のプライマリタグを適用せず、サービス名にメトリクスパーティションやグループ化変数を含めると、アカウント内のユニークなサービス数が不必要に増加し、遅延やデータ損失の可能性があります。 -For example, instead of the service `web-store`, you might decide to name different instances of a service `web-store-us-1`, `web-store-eu-1`, and `web-store-eu-2` to see performance metrics for these partitions side-by-side. Datadog recommends implementing the **region value** (`us-1`, `eu-1`, `eu-2`) as a second primary tag. +例えば、サービス `web-store` の代わりに、サービス `web-store-us-1`、`web-store-eu-1`、`web-store-eu-2` という異なるインスタンス名を指定して、これらのパーティションのパフォーマンスメトリクスを並べて確認することができます。Datadog では、**リージョン値** (`us-1`、`eu-1`、`eu-2`) を 2 番目のプライマリタグとして実装することを推奨しています。 {{% /collapse-content %}} ## 接続エラー -This section provides guidance on diagnosing and resolving connection and communication issues between your applications and the Datadog Agent +このセクションでは、アプリケーションと Datadog Agent 間の接続および通信の問題の診断と解決方法について説明します -{{% collapse-content title="Your instrumented application isn't communicating with the Datadog Agent" level="h4" %}} +{{% collapse-content title="インスツルメンテーションされたアプリケーションが Datadog Agent と通信していない" level="h4" %}} -Read about how to find and fix these problems in [Connection Errors][4]. +これらの問題の検出と解決方法については、[接続エラー][4]を参照してください。 {{% /collapse-content %}} -## Resource usage +## リソース使用量 -This section contains information on troubleshooting performance issues related to resource utilization. +このセクションでは、リソース使用量に関連するパフォーマンスの問題のトラブルシューティングに関する情報を記載しています。 -{{% collapse-content title="Out of memory errors" level="h4" %}} +{{% collapse-content title="メモリ不足エラー" level="h4" %}} トレースコレクションの CPU 使用率の検出と Agent の適切なリソース制限の計算については、[Agent のリソース使用量][10]を参照してください。 {{% /collapse-content %}} -{{% collapse-content title="Rate limit or max event error messages" level="h4" %}} +{{% collapse-content title="レート制限または最大イベントエラーメッセージ" level="h4" %}} Datadog Agent ログで、レート制限や 1 秒あたりの最大イベント数に関するエラーメッセージが表示される場合、[以下の手順][9]に従い制限を変更します。ご不明な点は、Datadog [サポートチーム][1]までお問い合わせください。 @@ -290,56 +290,56 @@ Datadog Agent ログで、レート制限や 1 秒あたりの最大イベント ## セキュリティ -This section covers approaches for addressing security concerns in APM, including protecting sensitive data and managing traffic. +このセクションでは、機密データの保護やトラフィックの管理など、APM のセキュリティに関する懸念に対処するためのアプローチを説明します。 -{{% collapse-content title="Modifying, discarding, or obfuscating spans" level="h4" %}} +{{% collapse-content title="スパンを変更、破棄、または難読化する" level="h4" %}} -There are several configuration options available to scrub sensitive data or discard traces corresponding to health checks or other unwanted traffic that can be configured within the Datadog Agent, or in some languages the tracing client. For details on the options available, see [Security and Agent Customization][11]. While this offers representative examples, if you require assistance applying these options to your environment, reach out to [Datadog Support][1]. +Datadog Agent または一部の言語でトレースクライアント内で構成可能な、ヘルスチェックやその他不要なトラフィックに関連する機密データのスクラブやトレースの破棄に関しては、複数の構成オプションが用意されています。利用可能なオプションについては、[セキュリティと Agent のカスタマイズ][11]を参照してください。本文では代表的な例をご紹介していますが、これらのオプションをお使いの環境に適用する際にサポートが必要な場合は、[Datadog サポート][1]までお問い合わせください。 {{% /collapse-content %}} -## Debugging and logging +## デバッグとログ -This section explains how to use debug and startup logs to identify and resolve issues with your Datadog tracer. +このセクションでは、デバッグログと起動ログを使用して、Datadog トレーサーの問題を特定し解決する方法について説明します。 -{{% collapse-content title="Debug logs" level="h4" %}} +{{% collapse-content title="デバッグログ" level="h4" %}} -To capture full details on the Datadog tracer, enable debug mode on your tracer by using the `DD_TRACE_DEBUG` environment variable. You might enable it for your own investigation or if Datadog support has recommended it for triage purposes. However, be sure to disable debug logging when you are finished testing to avoid the logging overhead it introduces. +Datadog トレーサーの詳細をすべて取得するには、`DD_TRACE_DEBUG` 環境変数を使いトレーサーのデバッグモードを有効にします。独自の調査のために有効にしたり、Datadog サポートもトリアージ目的で推奨している場合に、有効にしたりできます。ただし、ログのオーバーヘッドが発生するのを避けるため、テストが終わったらデバッグログを必ず無効にしてください。 これらのログは、インスツルメンテーションエラーやインテグレーション固有のエラーを明らかにすることができます。デバッグログの有効化と取得に関する詳細は、[デバッグモードのトラブルシューティングページ][5]を参照してください。 {{% /collapse-content %}} -{{% collapse-content title="Startup logs" level="h4" %}} +{{% collapse-content title="起動ログ" level="h4" %}} -During startup, Datadog tracing libraries emit logs that reflect the configurations applied in a JSON object, as well as any errors encountered, including if the Agent can be reached in languages where this is possible. Some languages require these startup logs to be enabled with the environment variable `DD_TRACE_STARTUP_LOGS=true`. For more information, see the [Startup logs][3]. +起動時、Datadog トレースライブラリは、JSON オブジェクトに適用された設定を反映するログおよび発生したエラーを出力します。それには、対応する言語で Agent に到達できるかも含まれます。一部の言語では、この起動ログが環境変数 `DD_TRACE_STARTUP_LOGS=true` で有効化されている必要があります。詳しくは[起動ログ][3]を参照してください。 {{% /collapse-content %}} -## Additional support +## 追加サポート -If you still need additional support, open a ticket with Datadog Support. +追加サポートが必要な場合は、Datadog サポートにチケットを開いてください。 -{{% collapse-content title="Open a Datadog Support ticket" level="h4" %}} +{{% collapse-content title="Datadog サポートチケット" level="h4" %}} -When you open a [support ticket][1], the Datadog support team may ask for the following types of information: +[サポートチケット][1]を開くと、Datadog サポートチームは以下の情報を求める場合があります。 -1. **Links to a trace or screenshots of the issue**: This helps reproduce your issues for troubleshooting purposes. +1. **問題のトレースへのリンクまたはスクリーンショット**: トラブルシューティングの目的で問題を再現するのに役立ちます。 -2. **Tracer startup logs**: Startup logs help identify tracer misconfiguration or communication issues between the tracer and the Datadog Agent. By comparing the tracer's configuration with the application or container settings, support teams can pinpoint improperly applied settings. +2. **トレーサーの起動ログ**: 起動ログは、トレーサーの誤構成やトレーサーと Datadog Agent 間の通信の問題を特定するのに役立ちます。トレーサーの構成とアプリケーションまたはコンテナの設定を比較することで、サポートチームは不適切に適用された設定を特定できます。 -3. **Tracer debug logs**: Tracer debug logs provide deeper insights than startup logs, revealing: - - Proper integration instrumentation during application traffic flow - - Contents of spans created by the tracer - - Connection errors when sending spans to the Agent +3. **トレーサーのデバッグログ**: トレーサーのデバッグログは、起動ログよりも詳細な情報を提供し、以下を明らかにします。 + - アプリケーションのトラフィックフロー中の適切なインテグレーションインスツルメンテーション + - トレーサーによって作成されたスパンの中身 + - スパンを Agent に送信する際の接続エラー -4. **Datadog Agent flare**: [Datadog Agent flares][12] enable you to see what is happening within the Datadog Agent, for example, if traces are being rejected or malformed. This does not help if traces are not reaching the Datadog Agent, but does help identify the source of an issue, or any metric discrepancies. +4. **Datadog Agent フレア**: [Datadog Agent フレア][12]により Datadog Agent 内で起きていること (例えば、トレースが拒否または不正な形式にされているか) を確認できます。これはトレースが Datadog Agent に到達していない場合は役に立ちませんが、問題の原因やメトリクスの不一致を特定することはできます。 -5. **A description of your environment**: Understanding your application's deployment configuration helps the Support team identify potential tracer-Agent communication issues and identify misconfigurations. For complex problems, support may request Kubernetes manifests, ECS task definitions, or similar deployment configuration files. +5. **お客様の環境の説明**: お客様のアプリケーションのデプロイ構成を理解することで、サポートチームはトレーサーと Agent 間の通信の問題の可能性を特定し、誤構成を特定できます。複雑な問題の場合、サポートは Kubernetes マニフェスト、ECS タスク定義、または同様のデプロイコンフィギュレーションファイルを求めることがあります。 -6. **Custom tracing code**: Custom instrumentation, configuration, and adding span tags can significantly impact trace visualizations in Datadog. +6. **カスタムトレースコード**: カスタムインスツルメンテーション、構成、およびスパンタグの追加は、Datadog でのトレースの視覚化に大きな影響を与える可能性があります。 -7. **Version information**: Knowing what language, framework, Datadog Agent, and Datadog tracer versions you are using allows Support to verify [Compatiblity Requirements][15], check for known issues, or recommend a version upgrades. For example: +7. **バージョン情報**: 使用している言語、フレームワーク、Datadog Agent、Datadog トレーサーのバージョンを把握することで、サポートは[互換性要件][15]の確認、既知の問題の確認、またはバージョンアップグレードの推奨を行うことができます。例: {{% /collapse-content %}} diff --git a/content/ko/account_management/saml/mobile-idp-login.md b/content/ko/account_management/saml/mobile-idp-login.md index 4acc4e8e6248b..c018a78f101a6 100644 --- a/content/ko/account_management/saml/mobile-idp-login.md +++ b/content/ko/account_management/saml/mobile-idp-login.md @@ -12,7 +12,7 @@ is_public: true title: IdP Initiated SAML을 사용하는 Datadog 모바일 앱 --- -## 구성 +## 설정 Datadog 모바일 앱에서 IdP Initiated SAML을 사용하려면, Datadog를 통해 추가 릴레이 상태(Relay State)를 전달하여 로그인 시 모바일 앱 랜딩 페이지를 트리거해야 합니다. 활성화한 후에는 특정 앱에서 SAML 로그인한 모든 경우에 진행하기 전에 전면(interstitial) 페이지가 표시됩니다. diff --git a/content/ko/account_management/teams.md b/content/ko/account_management/teams.md new file mode 100644 index 0000000000000..a372802aef0ee --- /dev/null +++ b/content/ko/account_management/teams.md @@ -0,0 +1,165 @@ +--- +title: Teams +--- + +## 개요 +Datadog Teams를 이용해 Datadog 내에서 사용자 그룹의 팀 자산을 구성하고, Datadog 전반에 걸친 경험을 자동으로 필터링해 자산의 우선 순위를 지정할 수 있습니다. + +Teams를 사용해 대시보드, 서비스, 모니터, 인시던트 등의 리소스를 사용자 그룹에 연결할 수 있습니다. Slack 채널, Jira 보드, GitHub 저장소 등에 팀별 링크를 추가할 수도 있습니다. + +누구나 Teams 멤버가 될 수 있습니다. 사용자가 직접 팀에 가입할 수도 있고, 다른 구성원이 추가할 수도 있으며, 관리자가 추가할 수도 있습니다. 사용자는 여러 팀에 속할 수 있습니다. + +## 설정 + +### 탐색 + +[Organization Settings][1]에서 또는 [**Service Management > Teams**][2]로 이동하여 팀 디렉터리 페이지에 액세스합니다. [팀 디렉터리 페이지][1]에는 조직 내의 모든 팀이 나열됩니다. + +### 팀 생성 + +1. [팀 디렉터리 페이지][1] 오른쪽 상단에 있는 **New Team**을 클릭합니다. +1. **Team Name**을 선택합니다. +1. **Handle**은 사용자의 팀 이름을 기준으로 자동으로 채워집니다. +1. **Description**은 선택 사항으로, 자세한 설명을 넣을 수 있습니다. +1. 드롭다운 메뉴를 사용하여 팀 구성원을 선택합니다. +1. **생성**을 클릭합니다. + +**참고:** 팀 이름과 팀 핸들에 허용되는 문자는 `a-z`, `A-Z`, `0-9` 및 `._-:/`입니다. 공백을 밑줄로 바꾸세요. + +### 팀 수정 + +1. [팀 디렉터리 페이지][1]에서 수정하려는 팀을 클릭합니다. +1. 화면 상단의 **Settings** 톱니바퀴를 클릭하면 팝업 창이 나타납니다. +1. 수정하려는 항목을 선택합니다. +1. 수정 후 **Save**를 클릭합니다. + +### 프로비저닝 소스 선택 + +관리자와 팀 관리자가 팀 구성원 자격을 업데이트하는 방법에는 세 가지 옵션이 있습니다. + +UI 및 API +: UI 작업 및 API 호출을 통해서만 구성원 자격 업데이트 + +SAML +: *엄격한 SAML* 모델을 사용해 ID 공급자 데이터가 팀 구성원 자격을 결정 + +모든 소스 +: SAML을 시작점으로 사용하고 UI 및 API를 통해 재정의 허용 + +1. [팀 디렉터리 페이지][1]에서 **Teams Settings**를 클릭합니다. +1. **Team Provisioning Sources**에서 옵션 하나를 선택합니다. + +기존 구성원이 포함된 팀이 있는 경우 SAML strict 옵션을 선택하면 설정이 재정의되고 해당 팀에서 팀 구성원이 제거됩니다. 모든 소스 옵션을 선택하면 기존 멤버십이 유지됩니다. SAML 속성을 사용하여 팀 및 팀 멤버십을 관리하려면 [SAML 속성을 Teams에 매핑][3]을 참조하세요. + +## 팀 핸들 + +팀 핸들은 팀을 Datadog 리소스에 연결합니다. 팀 핸들은 검색창과 패싯에 `team:<team-handle>`이나 `teams:<team-handle>`의 형식으로 나타납니다. + +팀 핸들 찾는 방법: +1. 팀 디렉터리 페이지에서 팀 이름을 클릭합니다. 측면 패널에 팀 상세 정보가 나타납니다. +1. 패널 상단에 있는 **handle** 필드를 찾습니다. + +리소스를 정의된 팀과 연결하려면 팀과 해당 팀에 맞는 팀 핸들이 Datadog에 있어야 합니다. 정의된 팀과 연결된 리소스를 클릭하면 팀 핸들과 추가 정보가 있는 작은 창이 나타납니다. 정의된 팀에서 팀 필터와 같은 추가 기능을 이용할 수 있습니다. + +Datadog에서 정의된 팀과 연결되지 않은 팀 핸들은 태그와 유사하게 처리됩니다. Teams 기능을 이용하려면 정의되지 않은 팀 핸들을 정의된 팀으로 변환하세요. + +### 팀 핸들에 리소스 연결 + +Datadog에서는 다음 리소스를 팀 핸들과 연결할 수 있도록 지원합니다. + +- [대시보드][4] +- [인시던트][5] +- [모니터][6] +- [리소스 카탈로그][7] +- [서비스 카탈로그][8] +- [서비스 수준 목표(Service Level Objectives)][9] +- 신서틱 테스트, 전역 변수, 프라이빗 위치 + +### 특정 커뮤니케이션 채널에 알림 보내기 + +Slack 또는 Microsoft Teams와 같은 커뮤니케이션 채널로 알림을 라우팅하려면 팀에 알림 채널을 추가하세요. `@team-<handle>`을 대상으로 하는 모니터 알림이 선택한 채널로 리디렉션됩니다. + +1. [팀 디렉터리 페이지][1]에서 수정하려는 팀을 클릭합니다. +1. 화면 상단의 **Settings** 톱니바퀴를 클릭하면 팝업 창이 나타납니다. +1. **Notifications**를 선택합니다. +1. 채널을 추가한 후 **Save**를 클릭합니다. + +## 필터 + +팀 필터를 이용해 Datadog 전반에 걸친 사용자 경험을 팀과 관련된 내용에 맞춰 조정할 수 있습니다. + +팀 필터는 각 목록 보기의 두 곳에 나타납니다. +- 왼쪽 상단에 있는 검색 패싯 목록 +- 검색 표시줄의 검색어 + + +사용자가 팀 필터를 활성화하면 팀과 연관된 리소스나 팀이 소유한 서비스만 볼 수 있습니다. 팀 필터 상태는 전역적이고 지속적이기 때문에 해당 제품과 관련한 사용자의 탐색 과정에서 팀 컨텍스트를 유지합니다. + +아래 표에서는 팀 필터를 사용할 수 있는 제품을 설명합니다. + +| 제품 목록 페이지 | 필터 기준 | +|-------------------------|----------------------------------------------------------------------------------| +| [대시보드][10] | 팀 핸들 | +| [리소스 카탈로그][7] | 팀 핸들 | +| [서비스 카탈로그][11] | 팀 핸들 | +| [인시던트][12] | 팀 핸들 | +| [모니터][13] | 팀 핸들 | +| [APM 오류 추적][14] | 팀이 소유한 서비스([서비스 카탈로그][11] 내 소유권으로 결정) | +| [로그 오류 추적][15] | 팀이 소유한 서비스([서비스 카탈로그][11] 내 소유권으로 결정) | +| [서비스 수준 목표(Service Level Objectives)][16] | 팀 핸들 | +| [데이터 스트림 모니터링][17] | 팀 핸들 | +| [신서틱(Synthetic) 테스트][18] | 팀 핸들 | +| [노트북][19] | 팀 핸들 | + + + +## 권한 + +팀 관리 권한이 있는 역할이 있는 사용자는 팀을 만들고, 팀 이름을 바꾸고, 팀을 삭제하고, 팀 핸들을 변경할 수 있으며, `user_access_manage` 권한이 있는 사용자는 팀 구성원과 관리자를 추가, 삭제, 승격할 수 있습니다. + +## 팀 관리 + +### 팀 멤버십 + +팀의 구성원을 구분하려면 팀 매니저로 지정하고, 구성원 목록에서 팀 매니저의 이름 옆에 "TEAM MANAGER" 배지가 나타납니다. + +팀 설정에서 팀 구성원 자격을 수정할 수 있는 사용자를 지정합니다. 다음 옵션을 사용할 수 있습니다. +- `user_access_manage` 권한을 가진 사용자에게만 적용 +- 팀 관리자 +- 팀 관리자 및 구성원 +- 조직의 모든 구성원 + +`user_access_manage` 권한이 있는 사용자는 구성원을 추가하거나 삭제할 수 있는 기본 규칙을 설정하거나 팀 세부 정보를 편집할 수 있습니다. 팀 디렉터리 페이지의 **Default Settings** 버튼을 사용해 기본 규칙을 설정할 수 있습니다. 팀 세부 정보 패널에서 개별 팀에 관한 정책을 재정의할 수 있습니다. + +### SAML 속성 매핑 + +SAML 속성을 사용해 팀과 팀 멤버십을 관리하려면 [SAML 속성을 Teams에 매핑][3]을 참고하세요. + +### 팀 관리 권한 위임 + +열린 구성원 모델의 경우 **Anyone in the organization**을 추가하거나 삭제할 수 있도록 기본 팀 설정을 설정하고, 사용자가 팀을 만들거나 팀 세부 사항을 편집할 수 있도록 해당 역할에 `teams_manage` 권한을 할당합니다. + +팀 중심의 구성원 모델을 선호하는 경우, **Team Managers** 또는 **Team Managers and Members**가 구성원을 추가 또는 삭제할 수 있도록 기본 팀 설정을 설정합니다. 모든 팀 매니저가 포함된 역할에 `teams_manage` 권한을 할당합니다. + +엄격한 구성원 자격 모델을 적용하려면 **user_access_manage** 권한이 있는 사용자만 구성원을 추가하거나 제거할 수 있도록 기본 팀 설정을 설정합니다. 조직 관리자에게만 `teams_manage` 권한을 할당합니다. + + +[1]: https://app.datadoghq.com/organization-settings/teams +[2]: https://app.datadoghq.com/teams +[3]: /ko/account_management/saml/mapping/#map-saml-attributes-to-teams +[4]: /ko/dashboards/#dashboard-details +[5]: /ko/service_management/incident_management/incident_details#overview-section +[6]: /ko/monitors/configuration/?tab=thresholdalert#add-metadata +[7]: /ko/infrastructure/resource_catalog/ +[8]: /ko/tracing/service_catalog/adding_metadata/#add-metadata-from-the-datadog-ui +[9]: /ko/service_management/service_level_objectives/#slo-tags +[10]: https://app.datadoghq.com/dashboard/lists +[11]: https://app.datadoghq.com/services +[12]: https://app.datadoghq.com/incidents +[13]: https://app.datadoghq.com/monitors/manage +[14]: https://app.datadoghq.com/apm/error-tracking +[15]: https://app.datadoghq.com/logs/error-tracking +[16]: https://app.datadoghq.com/slo/manage +[17]: https://app.datadoghq.com/data-streams +[18]: https://app.datadoghq.com/synthetics +[19]: https://app.datadoghq.com/notebook/list/ \ No newline at end of file diff --git a/content/ko/dashboards/functions/count.md b/content/ko/dashboards/functions/count.md index 8024a27572911..07683d2547768 100644 --- a/content/ko/dashboards/functions/count.md +++ b/content/ko/dashboards/functions/count.md @@ -6,7 +6,7 @@ title: 계산 ## 0 제외 계산 -| 기능 | 설명 | 예시 | +| 함수 | 설명 | 예시 | | :---- | :------- | :--------- | | `count_nonzero()` | 0이 아닌 모든 값의 개수를 계산합니다. | `count_nonzero(<METRIC_NAME>{*})` | @@ -20,7 +20,7 @@ title: 계산 ## null 제외 계산 -| 기능 | 설명 | 예시 | +| 함수 | 설명 | 예시 | | :---- | :------- | :--------- | | `count_not_null()` | null이 아닌 모든 값의 개수를 계산합니다. | `count_not_null(<METRIC_NAME>{*})` | diff --git a/content/ko/dashboards/functions/rank.md b/content/ko/dashboards/functions/rank.md index 792bf193b5adf..5da8aab0158b0 100644 --- a/content/ko/dashboards/functions/rank.md +++ b/content/ko/dashboards/functions/rank.md @@ -53,4 +53,4 @@ title: 순위 {{< /whatsnext >}} -[1]: http://en.wikipedia.org/wiki/Norm_(mathematics) +[1]: http://en.wikipedia.org/wiki/Norm_(mathematics) \ No newline at end of file diff --git a/content/ko/dashboards/guide/context-links.md b/content/ko/dashboards/guide/context-links.md index cd23c8388c593..d15ffe876c44e 100644 --- a/content/ko/dashboards/guide/context-links.md +++ b/content/ko/dashboards/guide/context-links.md @@ -42,7 +42,7 @@ title: 컨텍스트 링크 | 프로세스 | [라이브 프로세스][11] 페이지로 연결됩니다. | | APM 트레이스 | [Trace Explorer][12]에 연결되는 기본 트레이스를 표시하는 측면 패널을 엽니다.| | RUM 이벤트 | [RUM Explorer][13] 링크입니다. | -| 프로필 | APM [Profile Explorer][14]에 연결합니다. | +| 프로파일 | APM [Profile Explorer][14]에 연결합니다. | | 로그 | [Log Explorer][15]에 연결되는 기본 로그를 표시하는 측면 패널을 엽니다. | 해당되는 경우 컨텍스트 링크에 다음이 포함됩니다. diff --git a/content/ko/dashboards/widgets/change.md b/content/ko/dashboards/widgets/change.md index 21aff0efed84f..b418d33ff02b8 100644 --- a/content/ko/dashboards/widgets/change.md +++ b/content/ko/dashboards/widgets/change.md @@ -25,7 +25,7 @@ widget_type: 변경 ## 설정 -### 설정 +### 구성 1. 그래프화할 메트릭을 선택합니다. 2. 집계 함수를 선택합니다. @@ -65,4 +65,4 @@ widget_type: 변경 [2]: /ko/api/latest/dashboards/ [3]: /ko/dashboards/graphing_json/widget_json/ [6]: /ko/monitors/types/metric/?tab=change -[7]: /ko/monitors/guide/change-alert/ \ No newline at end of file +[7]: /ko/monitors/types/change-alert/ \ No newline at end of file diff --git a/content/ko/dashboards/widgets/pie_chart.md b/content/ko/dashboards/widgets/pie_chart.md index b90ae4beb77df..5665188596cc7 100644 --- a/content/ko/dashboards/widgets/pie_chart.md +++ b/content/ko/dashboards/widgets/pie_chart.md @@ -16,7 +16,7 @@ widget_type: 선버스트 {{< img src="dashboards/widgets/pie_chart/pie_chart_overview.png" alt="파이 차트 위젯입니다. 가장 안쪽 고리는 사용자의 국가를 나타내고, 가장 바깥쪽 고리는 비례하여 분할되어 각 국가에서 사용되는 브라우저의 점유율을 표시합니다." style="width:60%;">}} -## 설정 +## 구성 1. 사용 가능한 데이터 소스에서 선택합니다. 2. 쿼리를 설정합니다. 자세한 내용을 확인하려면 다음 리소스를 참조하세요. diff --git a/content/ko/database_monitoring/setup_sql_server/selfhosted.md b/content/ko/database_monitoring/setup_sql_server/selfhosted.md index 2a76ac0cebf1c..d926626ddae9f 100644 --- a/content/ko/database_monitoring/setup_sql_server/selfhosted.md +++ b/content/ko/database_monitoring/setup_sql_server/selfhosted.md @@ -72,16 +72,19 @@ CREATE USER datadog FOR LOGIN datadog; {{% /tab %}} {{< /tabs >}} +### 비밀번호를 안전하게 저장하기 +{{% dbm-secret %}} + ## 에이전트 설치 에이전트가 SQL Server에 지정된 텔레메트리 외에도 다양한 시스템 텔레메트리(CPU, 메모리, 디스크, 네트워크)를 수집하도록 하려면 SQL Server 호스트에 바로 에이전트를 설치하는 것이 좋습니다. {{< tabs >}} -{{% tab "Windows 호스트" %}} +{{% tab "Windows Host" %}} {{% dbm-alwayson %}} {{% dbm-sqlserver-agent-setup-windows %}} {{% /tab %}} -{{% tab "Linux 호스트" %}} +{{% tab "Linux Host" %}} {{% dbm-alwayson %}} {{% dbm-sqlserver-agent-setup-linux %}} {{% /tab %}} @@ -89,7 +92,7 @@ CREATE USER datadog FOR LOGIN datadog; {{% dbm-alwayson %}} {{% dbm-sqlserver-agent-setup-docker %}} {{% /tab %}} -{{% tab "쿠버네티스" %}} +{{% tab "Kubernetes" %}} {{% dbm-alwayson %}} {{% dbm-sqlserver-agent-setup-kubernetes %}} {{% /tab %}} diff --git a/content/ko/developers/guide/dogwrap.md b/content/ko/developers/guide/dogwrap.md index acf02d3afab4f..24e73bff81027 100644 --- a/content/ko/developers/guide/dogwrap.md +++ b/content/ko/developers/guide/dogwrap.md @@ -55,7 +55,7 @@ dogwrap -n <EVENT_TITLE> -k <DATADOG_API_KEY> -s eu "<COMMAND>" **참고**: Dogwrap 도움 명령 `dogwrap --help`을 사용하여 사용 가능한 모든 옵션을 검색합니다. -`cron`은 `dogwrap`의 실제 예시입니다. 매일 Postgres 테이블을 vacuuming하는 cron 스크립트를 가지고 있다면: +`cron`은 `dogwrap`의 실제 예시입니다. 매일 Postgres 테이블을 vacuuming하는 cron 스크립트를 가지고 있다면: ```bash 0 0 * * * psql -c 'vacuum verbose my_table' >> /var/log/postgres_vacuums.log 2>&1 diff --git a/content/ko/getting_started/profiler/_index.md b/content/ko/getting_started/profiler/_index.md index 6053d7f724de7..8c1d93a997d04 100644 --- a/content/ko/getting_started/profiler/_index.md +++ b/content/ko/getting_started/profiler/_index.md @@ -9,7 +9,7 @@ further_reading: text: Continuous Profiler - link: /profiler/enabling/ tag: 설명서 - text: 프로파일러 사용 + text: 프로파일러 활성화 - link: https://learn.datadoghq.com/courses/intro-to-apm tag: 학습 센터 text: 애플리케이션 성능 모니터링 소개 @@ -22,13 +22,13 @@ further_reading: title: 연속 프로파일러 시작하기 --- -프로파일링을 사용하면 서비스를 더 빠르고 저렴하게 안정적으로 제공할 수 있지만, 이전에 사용해 본 적이 없다면 혼동이 올 수 있습니다. +프로파일링을 사용하면 서비스를 더 빠르고 저렴하며 안정적으로 제공할 수 있지만 프로파일러를 사용해 보지 않았다면 어렵게 느껴질 수 있습니다. -이 가이드에서는 프로파일링에 대한 설명과 함께 성능 문제가 있는 샘플 서비스를 제공하며, Datadog 연속 프로파일러를 사용하여 문제를 파악하고 해결합니다. +이 가이드에서는 프로파일링에 대해 설명하고, 성능 문제가 있는 샘플 서비스를 제공하며, Datadog Continuous Profiler를 사용하여 문제를 이해하고 해결합니다. ## 개요 -프로파일러는 실행 중인 프로그램에 대한 데이터를 수집하여 각 기능이 얼마나 많은 "작업"을 수행하고 있는지 보여줍니다. 예를 들어 인프라스트럭처 모니터링에서 앱 서버가 CPU의 80%를 사용하고 있는 것으로 나타났는데 그 이유를 모를 수 있습니다. 프로파일링은 다음과 같이 작업 분석 내용을 보여줍니다. +프로파일러는 실행 중인 프로그램에 대한 데이터를 수집하여 각 기능이 수행하는 "작업"의 양을 보여줍니다. 예를 들어 인프라스트럭처 모니터링에서 앱 서버가 CPU의 80%를 사용하고 있는데 그 원인을 파악하기 어려울 수 있습니다. 이때 프로파일링은 작업을 세부적으로 보여줍니다. 예를 들면 다음과 같습니다. | 함수 | CPU 사용량 | |---------------|-----------| @@ -36,26 +36,26 @@ title: 연속 프로파일러 시작하기 | `renderGraph` | 19% | | 기타 | 13% | -성능 문제를 해결할 때 이 정보가 중요한 이유는 많은 프로그램이 몇 군데에서 많은 시간을 소비하고 있지만 명확하게 파악되지 않을 수 있기 때문입니다. 프로그램의 어느 부분을 최적화할지 추측하는 것만으로는 엔지니어가 많은 시간을 소비하고도 별다른 성과를 거두지 못할 수 있습니다. 이때, 프로파일러를 사용하면 코드의 어떤 부분을 최적화할지 정확히 찾을 수 있습니다. +성능 문제 해결 시 많은 프로그램이 몇 군데에서 많은 시간을 소비하기 때문에 이러한 정보가 유용합니다. 프로그램의 어느 부분을 최적화할지 엔지니어가 추측해야 한다면 소비 시간 대비 별다른 성과를 거두지 못할 수 있습니다. 하지만 프로파일러를 사용하면 코드의 어느 부분을 최적화할지 정확히 찾을 수 있습니다. -애플리케이션 성능 모니터링(APM) 도구를 사용해 본 적이 있다면, 프로파일링을 계측 없이도 코드를 세밀하게 볼 수 있는 "심층" 트레이서처럼 생각할 수 있습니다. +APM 도구를 사용해 본 적이 있다면, 프로파일링을 계측 없이도 코드를 세밀하게 볼 수 있는 "심층" 추적기처럼 생각할 수 있습니다. -Datadog 연속 프로파일러는 CPU 사용량, 메모리에 할당되는 개체의 양 및 유형, 잠금을 획득하기 위해 대기하는 시간, 네트워크 또는 파일 I/O의 양 등 다양한 유형의 "작업"을 추적할 수 있습니다. 사용 가능한 프로필 유형은 프로파일링하는 언어에 따라 다릅니다. +Datadog Continuous Profiler는 CPU 사용량, 메모리에 할당되는 객체의 양과 유형, 잠금 획득 대기 시간, 네트워크 또는 파일 I/O 양 등 다양한 유형의 '작업'을 추적할 수 있습니다. 사용 가능한 프로파일 유형은 프로파일링 중인 언어에 따라 다릅니다. ## 설정 -### 전제 조건 +### 사전 필수 조건 시작하기 전에 다음의 전제 조건을 충족하는지 확인하세요. 1. [docker-compose][1] -2. Datadog 계정과 [API키][2]입니다. Datadog 계정이 필요하다면 [무료 평가판에 가입해 보세요][3]. +2. Datadog 계정과 [API 키][2]. Datadog 계정이 필요한 경우 [무료 평가판에 등록][3]하세요. ### 설치 -[d-continuous-profiler-example][4] 리포지토리는 실험을 위해 성능 문제가 있는 예제 서비스를 제공하며, 5000개의 영화 "데이터베이스"를 검색하기 위한 API를 포함합니다. +[dd-continuous-profiler-example][4] 리포지토리는 실험을 위해 성능 문제가 있는 예제 서비스를 제공합니다. 5,000편의 영화에 대한 "데이터베이스" 검색을 위해 API가 포함되어 있습니다. -예시 서비스를 설치하고 실행합니다: +예제 서비스를 설치하고 실행합니다. ```shell git clone https://github.com/DataDog/dd-continuous-profiler-example.git @@ -66,22 +66,22 @@ docker-compose up -d ### 검증 -컨테이너가 제작되고 실행되면 "툴박스" 컨테이너는 다음을 탐색할 수 있습니다: +컨테이너가 빌드되고 실행되면 "도구 상자" 컨테이너를 탐색할 수 있습니다. ``` docker exec -it dd-continuous-profiler-example-toolbox-1 bash ``` -API를 다음과 함께 사용합니다: +다음과 함께 API를 사용하세요. ``` curl -s http://movies-api-java:8080/movies?q=wars | jq ``` -원할 경우 Python 버전의 예제 서비스인 `movies-api-py`가 있습니다. 사용하게 된다면 튜토리얼 전체에서 명령어를 적절히 조정하세요. +원하는 경우 `movies-api-py` 이라는 Python 버전의 예제 서비스가 있습니다. 튜토리얼 전반에 걸쳐 명령을 적절하게 조정하세요. ### 데이터 생성 -ApacheBench 도구, [ab][5]를 사용하여 트래픽을 생성합니다. 20초 동안 요청을 전송하는 10개의 동시 HTTP 클라이언트에 대해 실행합니다. 도구 상자 컨테이너에서 다음을 실행하세요: +ApacheBench 도구, [ab][5]를 사용하여 트래픽을 생성합니다. 20초 동안 요청을 보내는 10개의 동시 HTTP 클라이언트에 대해 실행합니다. 도구 상자 컨테이너 내에서 다음을 실행합니다. ```shell ab -c 10 -t 20 http://movies-api-java:8080/movies?q=the @@ -91,8 +91,8 @@ ab -c 10 -t 20 http://movies-api-java:8080/movies?q=the ```text ... -ab별로 보고된 지연 시간: -특정 시간 내에 처리된 요청의 백분율(ms) +Reported latencies by ab: +Percentage of the requests served within a certain time (ms) 50% 464 66% 503 75% 533 @@ -101,67 +101,66 @@ ab별로 보고된 지연 시간: 95% 683 98% 767 99% 795 - 100% 867 (가장 긴 요청) + 100% 867 (longest request) ``` ## 조사 ### 프로필 읽기 -[Profile Search][6]를 사용하여 트래픽을 생성한 기간을 포함하는 프로필을 찾습니다. 로드하는 데 1분 정도 걸릴 수 있습니다. 로드 테스트가 포함된 프로필은 CPU 사용량이 더 높습니다: +[Profile Search][6]를 사용하여 트래픽이 발생한 기간에 해당하는 프로필을 찾습니다. 로드하는 데 1분 정도 걸릴 수 있습니다. 로드 테스트를 포함하는 프로필의 CPU 사용량이 더 높습니다. {{< img src="profiler/intro_to_profiling/list.png" alt="프로필 목록" style="width:80%;">}} -프로필을 열면 프로필 시각화가 다음과 유사하게 표시됩니다. +프로필을 열면 프로필 시각화가 다음과 유사하게 나타납니다. {{< img src="profiler/intro_to_profiling/flame_graph.png" alt="플레임 그래프">}} -이것은 플레임 그래프입니다. 그래프에서 가장 중요한 부분은 각 메서드가 얼마나 많은 CPU를 사용했는지(CPU프로필이기 때문에)와 각 메서드가 어떻게 호출되었는지입니다. 예를 들어, 위에서 두 번째 행을 보면 (다른 것들 중에서), `QueuedThreadPool$2.run()`라고 불리는`Thread.run()`, `QueuedThreadPool.runjob(Runnable)`, `ReservedTheadExecutor$ReservedThread.run()` 등을 볼 수 있습니다. +플레임 그래프입니다. 표시되는 가장 중요한 사항은 각 메서드가 사용된 CPU 양(CPU 프로필이므로)과 각 메서드가 호출된 방식입니다. 예를 들어 위에서 두 번째 행을 읽으면 `Thread.run()`가 `QueuedThreadPool$2.run()`(다른 것들 중에서)을 호출하고, `QueuedThreadPool.runjob(Runnable)`을 호출하고, `ReservedTheadExecutor$ReservedThread.run()`등을 호출합니다. -플레임 그래프 하단의 한 영역을 확대하면 툴팁을 통해 CPU 시간의 약 309ms(0.90%)가 `parse()`함수 내에서 소비되었음을 알 수 있습니다: +플레임 그래프 하단의 한 영역을 확대하면 툴팁을 통해 `parse()`함수 내에서 대략 309ms(0.90%)의 CPU 시간이 소비되었음을 알 수 있습니다. -{{< img src="profiler/intro_to_profiling/flame_graph_parse.png" alt="플레임 그래프 parse() 프레임">}} +{{< img src="profiler/intro_to_profiling/flame_graph_parse.png" alt="Flame 그래프 parse() 프레임">}} -`String.length()`는 `parse()` 함수 바로 아래에 있으며, 이는 `parse()`가 호출함을 의미합니다. `String.length()` 위로 마우스를 가져가면 약 112ms의 CPU 시간이 소요된 것을 확인할 수 있습니다: +`String.length()`는 `parse()` 함수 바로 아래에 있습니다. 즉, `parse()`가 이를 호출한다는 의미입니다. `String.length()` 위로 마우스를 가져가면 약 112ms의 CPU 시간이 소요된 것을 확인할 수 있습니다. {{< img src="profiler/intro_to_profiling/flame_graph_length.png" alt="플레임 그래프 String.length() 프레임">}} -197밀리초가 `parse()`: 309밀리초 - 112밀리초에서 직접 소비되었습니다. 그것은 `parse()` 상자의 아래에 아무것도 없는 부분으로 시각적으로 표현됩니다. +이는 309ms - 112ms에서 197ms가 `parse()`에 직접적으로 소비된 것입니다. `parse()` 박스 아래의 아무것도 표시되어 있지 않은 부분이 이를 시각적으로 나타내고 있습니다. -플레임 그래프는 시간의 진행을 나타내는 것이 _아닙니다_. 프로필의 이 부분을 보면 `Gson$1.write()`가 `TypeAdapters$16.write()` 전에 실행되지 않았으며 이후에도 실행되지 않았을 수 있습니다. +플레임 그래프는 시간의 진행을 _나타내지 않는다_는 점을 알아둘 필요가 있습니다. 프로필에서 이 부분을 보면 `TypeAdapters$16.write()` 이전에 `Gson$1.write()`이 실행되지 않았지만 이후에도 실행되지 않았을 수 있습니다. {{< img src="profiler/intro_to_profiling/flame_graph_write.png" alt="write() 프레임이 나란히 있는 플레임 그래프 섹션">}} -두 함수가 동시에 실행되고 있었을 수도 있고, 프로그램이 한 함수를 여러 번 호출한 다음 다른 함수를 여러 번 호출하고 계속 전환했을 수도 있습니다. 플레임 그래프는 프로그램이 동일한 일련의 함수를 실행한 모든 시간을 합쳐서 표시하므로 함수가 호출될 때마다 수많은 작은 상자를 표시하지 않고도 코드의 어느 부분에서 가장 많은 CPU를 사용했는지 한눈에 파악할 수 있습니다. +동시에 실행될 수도 있고, 프로그램이 한 호출을 여러 번 실행한 다음 다른 호출을 여러 번 실행하고 앞뒤로 계속 전환할 수도 있습니다. 플레임 그래프는 프로그램이 동일한 일련의 함수를 실행할 때마다 함께 병합됩니다. 따라서 함수가 호출될 때마다 표시하는 수많은 작은 상자 없이 코드의 어느 부분이 CPU를 가장 많이 사용했는지 한눈에 알 수 있습니다. +다시 축소하여 CPU 사용량의 약 87%가 `replyJSON()` 메서드 내에 있는지 확인합니다. 그 아래에는 그래프가 `replyJSON()`을 표시하며 그래프가 호출하는 메서드는 결국 정렬 및 날짜 구문 분석과 관련된 함수를 실행하는 4개의 주요 코드 경로("스택 트레이스")로 분기됩니다. -축소하면 CPU 사용량의 약 87%가 `replyJSON()` 메서드 내에 있었다는 것을 알 수 있습니다. 그 아래 표시된 그래프는 `replyJSON()`와 이를 호출하는 메서드는 결국 정렬 및 날짜 구문 분석과 관련된 함수를 실행하는 네 가지 주요 코드 경로("스택 트레이스")로 분기됨을 보여줍니다: +{{< img src="profiler/intro_to_profiling/flame_graph_replyjson_arrows.png" alt="replyJSON() 아래 스택 트레이스를 가리키는 화살표가 있는 플레임 그래프">}} -{{< img src="profiler/intro_to_profiling/flame_graph_replyjson_arrows.png" alt="replyJSON() 아래의 스택 추적을 가리키는 화살표가 있는 플레임 그래프">}} +또한 다음과 같은 CPU 프로필의 일부를 볼 수 있습니다. -또한 CPU 프로필에서 다음과 같은 부분을 볼 수 있습니다: +{{< img src="profiler/intro_to_profiling/flame_graph_gc.png" alt="GC(가비지 수집)를 보여주는 플레임 그래프" style="width:80%;">}} -{{< img src="profiler/intro_to_profiling/flame_graph_gc.png" alt="GC (garbage collection)를 나타내는 플레임 그래프" style="width:80%;">}} +### 프로파일 유형 -### 프로필 유형 - -CPU 시간의 거의 6%가 휴지통 수집에 사용되었으며, 이는 휴지통 수집이 많은 휴지통을 생성하고 있음을 의미합니다. 따라서 **Allocated Memory** 프로필 유형을 검토하세요: +CPU 시간의 거의 6%가 가비지 수집에 사용되었으며 이는 많은 가비지를 생성할 수 있음을 의미합니다. 따라서 **Allocated Memory** 프로필 유형을 검토하세요. {{< img src="profiler/intro_to_profiling/types.png" alt="프로필 유형 선택기" style="width:60%;">}} -Allocated Memory 프로필에서 상자의 크기는 각 함수가 할당한 메모리의 양과 해당 함수가 할당 작업을 수행하도록 유도한 호출 스택을 보여줍니다. 이 1분 프로필에서 `replyJSON()` 메서드와 이 메서드가 호출한 다른 메서드에 17.47기가바이트가 할당된 것을 볼 수 있으며, 대부분 위의 CPU 프로필에서 볼 수 있는 것과 동일한 날짜 구문 분석 코드와 관련이 있습니다: +Allocated Memory 프로필에서 상자의 크기는 각 함수에 할당된 메모리 양과 할당을 수행하는 함수로 이어진 호출 스택을 보여줍니다. 여기서는 이 1분 프로필 동안 호출된 `replyJSON()` 메서드 및 기타 메서드가 17.47GiB를 할당했음을 확인할 수 있습니다. 이는 대부분 위의 CPU 프로필에 표시된 동일한 날짜 구문 분석 코드와 관련이 있습니다. -{{< img src="profiler/intro_to_profiling/alloc_flame_graph_replyjson_arrows.png" alt="replyJSON() 아래의 스택 추적을 가리키는 화살표가 있는 할당 프로필의 플레임 그래프">}} +{{< img src="profiler/intro_to_profiling/alloc_flame_graph_replyjson_arrows.png" alt="replyJSON() 아래 스택 트레이스를 가리키는 화살표가 있는 할당 프로필의 플레임 그래프">}} ## 복구 ### 코드 수정 -코드를 검토하고 어떻게 진행되고 있는지 파악해 보세요. CPU 플레임 그래프를 보면 비용이 많이 드는 코드 경로가 66번 줄에 있는 Lambda를 통과하고 있으며 이는 `LocalDate.parse()`를 호출합니다: +코드를 검토하고 진행 상황을 확인합니다. CPU 플레임 그래프를 보면 비용이 많이 드는 코드 경로가 `LocalDate.parse()`을 호출하는 66번 라인의 Lambda를 통과하는 것을 볼 수 있습니다. -{{< img src="profiler/intro_to_profiling/flame_graph_sort_lambda.png" alt="sort lambda 위에 마우스를 올려놓은 플레임 그래프">}} +{{< img src="profiler/intro_to_profiling/flame_graph_sort_lambda.png" alt="sort lambda 위에 마우스를 올려 놓은 플레임 그래프">}} -이것은 [`dd-continuous-profiler-example`][7]의 코드 부분에 해당하며, 여기에서 `LocalDate.parse()`를 호출합니다: +이는 [`dd-continuous-profiler-example`][7]의 이 코드 부분에 해당하며, 여기서는 `LocalDate.parse()`을 호출합니다. ```java private static Stream<Movie> sortByDescReleaseDate(Stream<Movie> movies) { @@ -179,9 +178,9 @@ private static Stream<Movie> sortByDescReleaseDate(Stream<Movie> movies) { } ``` -이것은 API의 정렬 로직으로, 릴리스 날짜별로 내림차순으로 결과를 반환합니다. 이 로직은 `LocalDate`로 변환된 릴리스 날짜를 정렬 키로 사용하여 수행합니다. 시간을 절약하기 위해 모든 요청이 아닌 각 영화의 개봉일에 대해서만 파싱되도록 `LocalDate`를 캐시할 수 있지만, 더 나은 방법이 있습니다. 날짜는 ISO 8601 형식(yyyy-mm-dd)으로 구문 분석되고 있으므로 구문 분석 대신 문자열로 정렬할 수 있습니다. +이는 출시 날짜를 기준으로 내림차순으로 결과를 반환하는 API의 정렬 논리입니다. 이는 정렬 키로 `LocalDate`로 변환된 출시 날짜를 사용하여 수행됩니다. 시간을 절약하기 위해 모든 요청이 아닌 각 영화의 출시 날짜에 대해서만 구문 분석되도록 `LocalDate`를 캐시할 수 있지만 더 나은 방법이 있습니다. 날짜는 ISO 8601 형식(yyyy-mm-dd)으로 구문 분석됩니다. 즉, 구문 분석 대신 문자열로 정렬할 수 있습니다. -`try`와 `catch`를 다음과 같이 `return m.releaseDate;`로 바꿉니다: +다음과 같이 `try` 및 `catch`를 `return m.releaseDate;`로 대체합니다. ```java private static Stream<Movie> sortByDescReleaseDate(Stream<Movie> movies) { @@ -191,15 +190,15 @@ private static Stream<Movie> sortByDescReleaseDate(Stream<Movie> movies) { } ``` -서비스를 재구성하고 다시 시작합니다: +그런 다음 서비스를 다시 구축하고 재시작합니다. ``` docker-compose build movies-api-java docker-compose up -d ``` -### 다시 테스트 +### 재테스트 -결과를 테스트하려면 트래픽을 다시 생성합니다: +결과를 테스트하려면 트래픽을 다시 생성합니다. ```shell docker exec -it dd-continuous-profiler-example-toolbox-1 bash @@ -209,8 +208,8 @@ ab -c 10 -t 20 http://movies-api-java:8080/movies?q=the 출력 예시: ``` -ab별로 보고된 지연 시간: -특정 시간 내에 처리된 요청의 백분율(ms) +Reported latencies by ab: +Percentage of the requests served within a certain time (ms) 50% 82 66% 103 75% 115 @@ -219,18 +218,18 @@ ab별로 보고된 지연 시간: 95% 171 98% 202 99% 218 - 100% 315 (가장 긴 요청) + 100% 315 (longest request) ``` p99는 795ms에서 218ms로 증가했고, 전체적으로 기존보다 4배에서 6배 정도 빠릅니다. -새 로드 테스트가 들어 있는 [프로필](#read-the-profile)을 찾아 CPU 프로필을 확인합니다. 플레임 그래프의 `replyJSON` 부분은 이전 로드 테스트보다 전체 CPU 사용량에서 훨씬 적은 비율을 차지합니다: +새 로드 테스트가 포함된 [프로필](#read-the-profile)을 찾아 CPU 프로필을 확인합니다. 플레임 그래프의 `replyJSON` 일부는 이전 로드 테스트보다 총 CPU 사용량의 비율이 훨씬 적습니다. {{< img src="profiler/intro_to_profiling/flame_graph_optimized_replyjson.png" alt="최적화된 replyJSON() 스택 트레이스가 포함된 플레임 그래프">}} ### 정리 -탐색이 끝나면 다음을 실행하여 정리합니다: +탐색이 끝나면 다음을 실행하여 정리하세요. ```shell docker-compose down @@ -240,11 +239,11 @@ docker-compose down ### 비용 절감 -이처럼 CPU 사용량을 개선하면 비용을 절감할 수 있습니다. 이것이 실제 서비스였다면 이 작은 개선으로 서버를 절반으로 줄일 수 있고, 연간 수천 달러를 절약할 수 있습니다. 10분 정도의 작업으로 얻을 수 있는 좋은 성과입니다. +이렇게 CPU 사용량을 개선하면 비용 절감으로 이어질 수 있습니다. 실제 서비스였다면 이 작은 개선으로 서버를 절반으로 축소하여 연간 수천 달러를 절약할 수 있었을 것입니다. 10분 정도 작업한 것에 비하면 나쁘지 않은 성과입니다. -### 서비스 향상 +### 서비스 개선 -이 가이드는 프로파일링에 대해 간략하게 다루고 있으나 시작하는 방법에 대한 유용한 정보를 제공합니다. **[귀하의 서비스에 대해 프로파일러를 활성화하세요][8]**. +이 가이드에서는 프로파일링의 개요와 시작하는 방법에 대해 다룹니다. **[서비스에 대해 프로파일러를 활성화하세요][8]**. ## 참고 자료 diff --git a/content/ko/getting_started/service_catalog/_index.md b/content/ko/getting_started/service_catalog/_index.md index cb160e39c15f9..53b193053ec6e 100644 --- a/content/ko/getting_started/service_catalog/_index.md +++ b/content/ko/getting_started/service_catalog/_index.md @@ -26,7 +26,7 @@ Datadog 서비스 카탈로그는 소유권 메타데이터, 성능 인사이트 이 페이지는 Datadog에서 서비스 카탈로그를 시작하는 방법을 안내합니다. -## 사전 필수 요건 +## 사전 필수 조건 아직 하지 않았다면 [Datadog 계정][1]을 생성하세요. @@ -50,7 +50,7 @@ application: shopping-app tier: "1" type: web languages: - - 고 + - go - 파이썬(Python) 연락처: - 유형: 슬랙 @@ -174,7 +174,7 @@ Datadog 스코어카드에는 통합 가시성 관행, 소유권 태깅, 프로 [4]: /ko/real_user_monitoring [5]: /ko/getting_started/tagging/unified_service_tagging [6]: /ko/integrations/servicenow/#service-ingestion -[7]: /ko/service_catalog/setup#import-data-from-other-sources +[7]: /ko/integrations/backstage/ [8]: https://www.datadoghq.com/blog/github-actions-service-catalog [9]: https://backstage.io/docs/overview/what-is-backstage [10]:/ko/api/latest/service-definition diff --git a/content/ko/glossary/terms/relative_change.md b/content/ko/glossary/terms/relative_change.md new file mode 100644 index 0000000000000..4662617a490c1 --- /dev/null +++ b/content/ko/glossary/terms/relative_change.md @@ -0,0 +1,10 @@ +--- +core_product: +- ci-cd +related_terms: +- 기준 평균 +- 테스트 기간 +- 절대적 변화 +title: 상대적 변화 +--- +Datadog CI 테스트 가시성에서 상대적 변화는 테스트 기간과 기준 평균 간의 상대적 차이를 의미합니다. 자세한 내용은 <a href="/continuous_integration/explorer/?탭=testruns">설명서를 참조하세요</a>. \ No newline at end of file diff --git a/content/ko/glossary/terms/standard_deviation_change.md b/content/ko/glossary/terms/standard_deviation_change.md new file mode 100644 index 0000000000000..77148d85c89cf --- /dev/null +++ b/content/ko/glossary/terms/standard_deviation_change.md @@ -0,0 +1,8 @@ +--- +core_product: +- ci-cd +related_terms: +- 기준 평균 +title: 표준 편차 변화 +--- +Datadog CI 테스트 가시성에서 표준 편차 변화는 기준 평균을 상회하는 표준 편차 수를 의미합니다. 자세한 내용은 <a href="/continuous_integration/explorer/?탭=testruns">설명서를 참조하세요</a>. \ No newline at end of file diff --git a/content/ko/integrations/_index.md b/content/ko/integrations/_index.md index dd3a62385fd40..f71305bb2ef25 100644 --- a/content/ko/integrations/_index.md +++ b/content/ko/integrations/_index.md @@ -11,32 +11,32 @@ aliases: - /ko/integrations/shoreline_software_license/ cascade: - _target: + lang: en path: /integrations/akamai_datastream_2 - lang: ko aliases: - - /ko/integrations/akamai_datastream + - /integrations/akamai_datastream - _target: + lang: en path: /integrations/azure - lang: ko algolia: - category: 설명서 + category: 문서 rank: 80 subcategory: 통합 tags: - azure - microsoft azure - _target: + lang: en path: /integrations/kubernetes_state_core - lang: ko algolia: - category: 설명서 + category: 문서 rank: 60 subcategory: 통합 tags: - ksm - _target: + lang: en path: /integrations/google_cloud_platform - lang: ko algolia: category: 설명서 rank: 80 @@ -45,104 +45,103 @@ cascade: - gcp - google cloud platform - _target: + lang: en path: /integrations/amazon_web_services - lang: ko algolia: - category: 설명서 + category: 문서 rank: 80 subcategory: 통합 tags: - aws - amazon web services - _target: + lang: en path: /integrations/eks_fargate - lang: ko algolia: - category: 설명서 + category: 문서 rank: 60 subcategory: 통합 tags: - eks logging - _target: + lang: en path: /integrations/win32_event_log - lang: ko algolia: - category: 설명서 + category: 문서 rank: 60 subcategory: 통합 tags: - event viewer aliases: - - /ko/integrations/eventviewer/ + - /integrations/eventviewer/ - _target: + lang: en path: /integrations/lambdatest_license - lang: ko aliases: - - /ko/integrations/lambdatest_software_license/ + - /integrations/lambdatest_software_license/ - _target: + lang: en path: /integrations/mongo - lang: ko aliases: - - /ko/integrations/mongodb/ + - /integrations/mongodb/ - _target: + lang: en path: /integrations/rapdev_validator - lang: ko aliases: - - /ko/integrations/rapdev_dashboard_widget_pack/ + - /integrations/rapdev_dashboard_widget_pack/ - _target: + lang: en path: /integrations/wmi_check - lang: ko aliases: - - /ko/integrations/wmi/ + - /integrations/wmi/ - _target: + lang: en path: /integrations/jfrog_platform_self_hosted - lang: ko aliases: - - /ko/integrations/jfrog_platform/ + - /integrations/jfrog_platform/ - _target: + lang: en path: /integrations/komodor_license - lang: ko aliases: - - /ko/integrations/komodor_komodor/ + - /integrations/komodor_komodor/ - _target: + lang: en path: /integrations/stormforge_license - lang: ko aliases: - - /ko/integrations/stormforge_stormforge_license/ + - /integrations/stormforge_stormforge_license/ - _target: + lang: en path: /integrations/feed - lang: ko aliases: - - /ko/integrations/rss/ + - /integrations/rss/ - _target: + lang: en path: /integrations/java - lang: ko aliases: - - /ko/agent/faq/jmx_integrations/ - - /ko/agent/faq/docker-jmx/ + - /agent/faq/jmx_integrations/ + - /agent/faq/docker-jmx/ - _target: + lang: en path: /integrations/amazon_elb - lang: ko aliases: - - /ko/integrations/awselb + - /integrations/awselb - _target: + lang: en path: /integrations/elastic - lang: ko aliases: - - /ko/integrations/awses + - /integrations/awses - _target: + lang: en path: /integrations/amazon_s3 - lang: ko aliases: - - /ko/integrations/awss3 + - /integrations/awss3 - _target: + lang: en path: /integrations/snowflake_web - lang: ko aliases: - - /ko/integrations/snowflake/ + - /integrations/snowflake/ description: 모든 시스템, 앱, 서비스에서 데이터를 수집하세요. disable_sidebar: true -custom_kind: 설명서 title: 통합 --- diff --git a/content/ko/integrations/amazon_mq.md b/content/ko/integrations/amazon_mq.md index 962b4f9747267..ccd06a15894ea 100644 --- a/content/ko/integrations/amazon_mq.md +++ b/content/ko/integrations/amazon_mq.md @@ -5,6 +5,7 @@ categories: - cloud - aws - log collection +custom_kind: 통합 dependencies: [] description: AWS MQ의 핵심 메트릭 추적하기. doc_link: https://docs.datadoghq.com/integrations/amazon_mq/ @@ -19,7 +20,6 @@ integration_id: '' integration_title: Amazon MQ integration_version: '' is_public: true -custom_kind: integration manifest_version: '1.0' name: amazon_mq public_title: Datadog-Amazon MQ 통합 @@ -74,7 +74,7 @@ AWS에서 검색된 각 메트릭에는 호스트 이름, 보안 그룹 등을 AWS Amazon MQ 통합에는 이벤트가 포함되어 있지 않습니다. -### 서비스 검사 +### 서비스 점검 AWS Amazon MQ 통합에는 서비스 점검이 포함되어 있지 않습니다. diff --git a/content/ko/integrations/amazon_s3.md b/content/ko/integrations/amazon_s3.md index 4120ce8b8acbe..232b5b274968b 100644 --- a/content/ko/integrations/amazon_s3.md +++ b/content/ko/integrations/amazon_s3.md @@ -48,6 +48,7 @@ tile: - Category::Metrics - Category::Cloud - Category::Data Stores + - Offering::Integration configuration: README.md#Setup description: Amazon S3는 가용성과 확장성이 뛰어난 클라우드 스토리지 서비스입니다. media: [] @@ -71,14 +72,14 @@ tile: ### 설치 -이미 하지 않은 경우 먼저 [Amazon Web Services 통합][2]을 설정합니다. +아직 설정하지 않은 경우 먼저 [Amazon Web Services 통합][2]을 설정하세요. ### 메트릭 수집 1. [AWS 통합 페이지][3]의 `Metric Collection` 탭에서 `S3`가 활성화되어 있는지 확인하세요. 2. [Datadog - Amazon S3 통합][4]을 설치합니다. -## 수집한 데이터 +## 수집한 데이터 ### 메트릭 {{< get-metrics-from-git "amazon_s3" >}} @@ -94,11 +95,11 @@ Amazon S3 통합에는 서비스 점검이 포함되지 않습니다. ## 트러블슈팅 -도움이 필요하신가요? [Datadog 지원팀][6]에 문의하세요. +도움이 필요하신가요? [Datadog 지원 팀][6]에 문의하세요. [1]: https://docs.aws.amazon.com/AmazonS3/latest/dev/cloudwatch-monitoring.html [2]: https://docs.datadoghq.com/ko/integrations/amazon_web_services/ [3]: https://app.datadoghq.com/integrations/amazon-web-services -[4]: https://app.datadoghq.com/integrations/amazon-billing +[4]: https://app.datadoghq.com/integrations/amazon-s3 [5]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_s3/metadata.csv [6]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/ambari.md b/content/ko/integrations/ambari.md index 088a2dcba9339..e4644e361d7dc 100644 --- a/content/ko/integrations/ambari.md +++ b/content/ko/integrations/ambari.md @@ -50,6 +50,7 @@ tile: - Category::Network - Supported OS::Linux - Supported OS::macOS + - 제공::통합 configuration: README.md#Setup description: 모든 ambari 관리형 클러스터에 대해 호스트 또는 서비스별로 메트릭 가져오기 media: [] @@ -74,11 +75,11 @@ Ambari 검사는 [Datadog Agent][2] 패키지에 포함되어 있어 서버에 ### 구성 {{< tabs >}} -{{% tab "호스트" %}} +{{% tab "Host" %}} #### 호스트 -호스트에서 실행 중인 Agent에 대해 이 검사를 설정하려면: +호스트에서 실행 중인 에이전트에 대해 이 점검을 구성하려면: ##### 메트릭 수집 diff --git a/content/ko/integrations/azure.md b/content/ko/integrations/azure.md index 5f48583f5b68c..9f55da1957333 100644 --- a/content/ko/integrations/azure.md +++ b/content/ko/integrations/azure.md @@ -9,6 +9,7 @@ categories: - log collection - network - notifications +custom_kind: 통합 dependencies: [] description: 인스턴스와 수많은 Azure 서비스에서 메트릭을 수집해 보세요. doc_link: https://docs.datadoghq.com/integrations/azure/ @@ -65,32 +66,31 @@ integration_id: azure integration_title: Microsoft Azure integration_version: '' is_public: true -custom_kind: integration manifest_version: '1.0' monitors: - '[Azure App Gateway] Backend Hosts': assets/monitors/app_gateway_backend_hosts.json - '[Azure App Gateway] CPU Utilization': assets/monitors/app_gateway_cpu_utilization.json - '[Azure App Gateway] Failed Requests': assets/monitors/app_gateway_failed_requests.json - '[Azure App Gateway] Response HTTP Status Anomaly': assets/monitors/app_gateway_http_status_anomalies.json - '[Azure App Service] App Service Errors': assets/monitors/app_service_app_service_errors.json - '[Azure App Service] App Service Plan CPU Utilization': assets/monitors/app_service_cpu.json - '[Azure App Service] App Service Plan Memory Utilization': assets/monitors/app_service_memory.json - '[Azure App Service] Connections': assets/monitors/app_service_connections.json - '[Azure App Service] Function App Errors': assets/monitors/app_service_function_app_errors.json - '[Azure App Service] Requests': assets/monitors/app_service_requests.json - '[Azure App Service] Response Time': assets/monitors/app_service_response_times.json - '[Azure SQL Database] CPU Utilization': assets/monitors/sql_db_cpu_percent.json - '[Azure SQL Database] DTU Consumption': assets/monitors/sql_db_dtu_consumption_percent.json - '[Azure SQL Database] Deadlock Anomalies': assets/monitors/sql_db_deadlock_anomalies.json - '[Azure SQL Database] Failed Connections': assets/monitors/sql_db_connections_failed.json - '[Azure SQL Database] Georeplication Link Status ': assets/monitors/sql_db_replication_links.json - '[Azure SQL Database] Storage Utilization': assets/monitors/sql_db_storage_percent.json - '[Azure VM] CPU Utilization Monitor': assets/monitors/vm_cpu_utilization.json - '[Azure VM] Resource Health Status Monitor': assets/monitors/vm_resource_health_status.json - '[Azure] API Rate Limit': assets/monitors/rate_limits.json - '[Azure] Integration Errors': assets/monitors/integration_errors.json - '[Azure] Resource Quotas': assets/monitors/resource_quotas.json - '[Azure] Service Health Events': assets/monitors/service_health_events.json + API Rate Limit: assets/monitors/rate_limits.json + App Service Errors is high: assets/monitors/app_service_app_service_errors.json + App Service Plan CPU Utilization is high: assets/monitors/app_service_cpu.json + App Service Plan Memory Utilization is high: assets/monitors/app_service_memory.json + App gateway CPU Utilization is high: assets/monitors/app_gateway_cpu_utilization.json + Backend Hosts Anomaly: assets/monitors/app_gateway_backend_hosts.json + Connections Anomaly: assets/monitors/app_service_connections.json + DTU Consumption: assets/monitors/sql_db_dtu_consumption_percent.json + Deadlock Anomalies: assets/monitors/sql_db_deadlock_anomalies.json + Failed Connections is high: assets/monitors/sql_db_connections_failed.json + Failed Requests is high: assets/monitors/app_gateway_failed_requests.json + Function App Errors is high: assets/monitors/app_service_function_app_errors.json + Georeplication Link Status: assets/monitors/sql_db_replication_links.json + Integration Errors: assets/monitors/integration_errors.json + Requests Anomaly: assets/monitors/app_service_requests.json + Resource Health Status: assets/monitors/vm_resource_health_status.json + Resource Quotas is high: assets/monitors/resource_quotas.json + Response HTTP Status Anomaly: assets/monitors/app_gateway_http_status_anomalies.json + Response Time Anomaly: assets/monitors/app_service_response_times.json + SQL DB CPU Utilization is high: assets/monitors/sql_db_cpu_percent.json + Service Health Events: assets/monitors/service_health_events.json + Storage Utilization is high: assets/monitors/sql_db_storage_percent.json + VM CPU Utilization is high: assets/monitors/vm_cpu_utilization.json name: azure public_title: Datadog-Microsoft Azure 통합 short_description: 인스턴스와 수많은 Azure 서비스에서 메트릭을 수집해 보세요. diff --git a/content/ko/integrations/envoy.md b/content/ko/integrations/envoy.md new file mode 100644 index 0000000000000..ac46cdf09c6d7 --- /dev/null +++ b/content/ko/integrations/envoy.md @@ -0,0 +1,294 @@ +--- +app_id: envoy +app_uuid: 49dc62d7-7e0c-4c46-b90f-dfd4d5c35d53 +assets: + dashboards: + Envoy - Overview: assets/dashboards/envoy_overview.json + Envoy Openmetrics Overview: assets/dashboards/openmetrics_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: envoy.server.uptime + metadata_path: metadata.csv + prefix: envoy. + process_signatures: + - envoy + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10012 + source_type_name: Envoy + monitors: + Envoy - connected state: assets/monitors/connected_state.json + saved_views: + envoy_4xx: assets/saved_views/envoy_4xx.json + envoy_5xx: assets/saved_views/envoy_5xx.json + envoy_error_grouped: assets/saved_views/envoy_error_grouped.json + envoy_overview: assets/saved_views/envoy_overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- cloud +- log collection +- network +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/envoy/README.md +display_on_public_website: true +draft: false +git_integration_title: envoy +integration_id: envoy +integration_title: Envoy +integration_version: 3.5.1 +is_public: true +manifest_version: 2.0.0 +name: envoy +public_title: Envoy +short_description: Envoy는 오픈 소스 엣지이자 서비스 프록시입니다. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Log Collection + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Network + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + - Offering::Integration + configuration: README.md#Setup + description: Envoy는 오픈 소스 엣지이자 서비스 프록시입니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Envoy +--- + +<!-- SOURCED FROM https://github.com/DataDog/integrations-core --> + + +## 개요 + +이 검사는 [Envoy][1]에서 분산 시스템 옵저버빌리티 메트릭을 수집합니다. + +## 설정 + +### 설치 + +Envoy 검사는 [Datadog Agent][2] 패키지에 포함되어 있으므로 서버에 다른 것을 설치할 필요가 없습니다. + +#### Istio + +[Istio][3]의 일부로 Envoy를 사용하는 경우 Istio 프록시 메트릭 엔드포인트에서 메트릭을 수집하도록 Envoy 통합을 구성합니다. + +```yaml +instances: + - openmetrics_endpoint: localhost:15090/stats/prometheus +``` + +#### 표준 + +`/stats` 엔드포인트를 설정하는 방법에는 두 가지가 있습니다. + +##### 보안되지 않은 통계 엔드포인트 + +다음은 Envoy 어드민 구성의 예입니다. + +```yaml +admin: + access_log_path: "/dev/null" + address: + socket_address: + address: 0.0.0.0 + port_value: 8001 +``` + +##### 보안된 통계 엔드포인트 + +[어드민 엔드포인트][4](Envoy가 자체적으로 연결됨)로 라우팅하는 리스너/가상호스트를 생성합니다. 단, `/stats`에 대해서만 경로가 있으며 다른 모든 경로는 정적/오류 응답을 받습니다. 또한, 예를 들어 인증용 L3 필터와도 잘 통합할 수 있습니다. + +다음은 [envoy_secured_stats_config.json][5]의 구성 예시입니다. + +```yaml +admin: + access_log_path: /dev/null + address: + socket_address: + protocol: TCP + address: 127.0.0.1 + port_value: 8081 +static_resources: + listeners: + - address: + socket_address: + protocol: TCP + address: 0.0.0.0 + port_value: 80 + filter_chains: + - filters: + - name: envoy.http_connection_manager + config: + codec_type: AUTO + stat_prefix: ingress_http + route_config: + virtual_hosts: + - name: backend + domains: + - "*" + routes: + - match: + prefix: /stats + route: + cluster: service_stats + http_filters: + - name: envoy.router + config: + clusters: + - name: service_stats + connect_timeout: 0.250s + type: LOGICAL_DNS + lb_policy: ROUND_ROBIN + hosts: + - socket_address: + protocol: TCP + address: 127.0.0.1 + port_value: 8001 +``` + +### 구성 + +{{< tabs >}} +{{% tab "Host" %}} + +#### 호스트 + +호스트에서 실행 중인 에이전트에 대해 이 점검을 구성하려면: + +##### 메트릭 수집 + +1. [Agent 구성 디렉터리][1]의 루트에 있는 `conf.d/` 폴더에서 `envoy.d/conf.yaml` 파일을 편집하여 Envoy 성능 데이터 수집을 시작하세요. 사용 가능한 모든 구성 옵션은 [샘플 envoy.d/conf.yaml][2]을 참조하세요. + + ```yaml + init_config: + + instances: + ## @param openmetrics_endpoint - string - required + ## The URL exposing metrics in the OpenMetrics format. + # + - openmetrics_endpoint: http://localhost:8001/stats/prometheus + + ``` + +2. Datadog Agent가 Envoy의 [어드민 엔드포인트][3]에 액세스할 수 있는지 확인하세요. +3. [Agent를 재시작합니다][4]. + +##### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. 다음으로, 맨 아래 `logs` 줄의 주석 처리를 제거하여 `envoy.d/conf.yaml`을 편집합니다. Envoy 로그 파일의 올바른 경로로 로그 `path`를 업데이트합니다. + + ```yaml + logs: + - type: file + path: /var/log/envoy.log + source: envoy + service: envoy + ``` + +3. [Agent를 재시작합니다][4]. + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/envoy/datadog_checks/envoy/data/conf.yaml.example +[3]: https://www.envoyproxy.io/docs/envoy/latest/operations/admin +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "컨테이너화" %}} + +#### 컨테이너화 + +컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][1]에 다음 파라미터를 적용하는 방법이 안내되어 있습니다. + +##### 메트릭 수집 + +| 파라미터 | 값 | +| -------------------- | ------------------------------------------- | +| `<INTEGRATION_NAME>` | `envoy` | +| `<INIT_CONFIG>` | 비어 있음 또는 `{}` | +| `<INSTANCE_CONFIG>` | `{"openmetrics_endpoint": "http://%%host%%:80/stats/prometheus"}` | +**참고**: 검사의 현재 버전(1.26.0+)은 메트릭 수집을 위해 [OpenMetrics][2]를 사용하며, Python 3이 필요합니다. Python 3을 사용할 수 없는 호스트의 경우 또는 이 검사의 레거시 버전을 사용하려면 다음 [구성][3]을 참조하세요. + +##### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +Datadog Agent에서는 로그 수집이 기본적으로 비활성화되어 있습니다. 활성화하려면 [Kubernetes 로그 수집][4]을 참조하세요. + +| 파라미터 | 값 | +| -------------- | -------------------------------------------------- | +| `<LOG_CONFIG>` | `{"source": "envoy", "service": "<SERVICE_NAME>"}` | + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/ko/integrations/openmetrics/ +[3]: https://github.com/DataDog/integrations-core/blob/7.33.x/envoy/datadog_checks/envoy/data/conf.yaml.example +[4]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[Agent의 상태 하위 명령을 실행][6]하고 Checks 섹션에서 `envoy`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "envoy" >}} + + +각 메트릭에서 전송된 태그 목록은 [metrics.py][7]를 참조하세요. + +### 이벤트 + +Envoy 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "envoy" >}} + + +## 트러블슈팅 + +### 일반적인 문제 + +#### 엔드포인트 `/server_info`에 연결할 수 없음 +- Envoy 환경에서 엔드포인트를 사용할 수 없는 경우 Envoy 구성에서 `collect_server_info` 옵션을 비활성화하여 오류 로그를 최소화합니다. + +**참고**: Envoy 버전 데이터는 수집되지 않습니다. + +도움이 필요하신가요? [Datadog 지원팀][8]에 문의하세요. + + +[1]: https://www.envoyproxy.io +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://istio.io +[4]: https://www.envoyproxy.io/docs/envoy/latest/operations/admin +[5]: https://gist.github.com/ofek/6051508cd0dfa98fc6c13153b647c6f8 +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/envoy/datadog_checks/envoy/metrics.py +[8]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/google_cloud_dataflow.md b/content/ko/integrations/google_cloud_dataflow.md index 13f1ca3339f8d..e43aa60066b98 100644 --- a/content/ko/integrations/google_cloud_dataflow.md +++ b/content/ko/integrations/google_cloud_dataflow.md @@ -20,7 +20,7 @@ integration_version: '' is_public: true manifest_version: '1.0' monitors: - job-backlog-time: assets/monitors/backlog_monitor.json + Job backlog time is high: assets/monitors/backlog_monitor.json name: google_cloud_dataflow public_title: Datadog-Google Cloud Dataflow 통합 short_description: 주요 Google Cloud Dataflow 메트릭을 추적합니다. diff --git a/content/ko/integrations/ibm_mq.md b/content/ko/integrations/ibm_mq.md new file mode 100644 index 0000000000000..4030fa65b1369 --- /dev/null +++ b/content/ko/integrations/ibm_mq.md @@ -0,0 +1,390 @@ +--- +app_id: ibm-mq +app_uuid: d29a1df9-6038-41f5-b017-82bf45f58767 +assets: + dashboards: + IBM MQ: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: ibm_mq.queue.usage + metadata_path: metadata.csv + prefix: ibm_mq. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10049 + source_type_name: IBM MQ +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 로그 수집 +- 메시지 큐 +- 네트워크 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/ibm_mq/README.md +display_on_public_website: true +draft: false +git_integration_title: ibm_mq +integration_id: ibm-mq +integration_title: IBM MQ +integration_version: 6.3.0 +is_public: true +manifest_version: 2.0.0 +name: ibm_mq +public_title: IBM MQ +short_description: IBM MQ는 메시지 대기열입니다 +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - 카테고리::메세지 큐 + - Category::Network + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: IBM MQ는 메시지 대기열입니다 + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/monitor-ibmmq-with-datadog + support: README.md#Support + title: IBM MQ +--- + +<!-- SOURCED FROM https://github.com/DataDog/integrations-core --> + + +## 개요 + +이 검사는 [IBM MQ][1] 버전 9.1 이상을 모니터링합니다. + +## 설정 + +### 설치 + +IBM MQ 검사는 [Datadog Agent][2] 패키지에 포함되어 있습니다. + +IBM MQ 검사를 사용하려면 [IBM MQ 클라이언트][3] 버전 9.1 이상이 설치되어 있는지 확인하세요(IBM MQ 서버의 호환 가능한 버전이 Agent 호스트에 이미 설치되어 있지 않은 경우). 예를 들어 [9.3 Redistributable client][4]입니다. IBM MQ 검사는 z/OS의 IBM MQ 서버에 대한 연결을 지원하지 않습니다. + +#### Linux의 경우 + +라이브러리 위치를 포함하도록 `LD_LIBRARY_PATH`를 업데이트합니다. 아직 존재하지 않는 경우 해당 환경 변수를 생성합니다. +예를 들어 클라이언트를 `/opt`에 설치한 경우: + +```text +export LD_LIBRARY_PATH=/opt/mqm/lib64:/opt/mqm/lib:$LD_LIBRARY_PATH +``` + +**참고**: Agent v6 이상은 `upstart`, `systemd`, `launchd`를 사용하여 datadog-agent 서비스를 조정합니다. 환경 변수는 다음 기본 위치에 있는 서비스 구성 파일에 추가되어야 할 수도 있습니다. + +- Upstart (Linux): `/etc/init/datadog-agent.conf` +- Systemd (Linux): `/lib/systemd/system/datadog-agent.service` +- Launchd (MacOS): `~/Library/LaunchAgents/com.datadoghq.agent.plist` + - 이는 MacOS SIP가 비활성화된 경우에만 작동합니다(보안 정책에 따라 권장되지 않을 수 있음). 이는 [SIP 제거 `LD_LIBRARY_PATH` 환경 변수][5] 때문입니다. + +`systemd` 구성 예: + +```yaml +[Unit] +Description="Datadog Agent" +After=network.target +Wants=datadog-agent-trace.service datadog-agent-process.service +StartLimitIntervalSec=10 +StartLimitBurst=5 + +[Service] +Type=simple +PIDFile=/opt/datadog-agent/run/agent.pid +Environment="LD_LIBRARY_PATH=/opt/mqm/lib64:/opt/mqm/lib:$LD_LIBRARY_PATH" +User=dd-agent +Restart=on-failure +ExecStart=/opt/datadog-agent/bin/agent/agent run -p /opt/datadog-agent/run/agent.pid + +[Install] +WantedBy=multi-user.target +``` + +`upstart` 구성 예: + +```conf +description "Datadog Agent" + +start on started networking +stop on runlevel [!2345] + +respawn +respawn limit 10 5 +normal exit 0 + +console log +env DD_LOG_TO_CONSOLE=false +env LD_LIBRARY_PATH=/opt/mqm/lib64:/opt/mqm/lib:$LD_LIBRARY_PATH + +setuid dd-agent + +script + exec /opt/datadog-agent/bin/agent/agent start -p /opt/datadog-agent/run/agent.pid +end script + +post-stop script + rm -f /opt/datadog-agent/run/agent.pid +end script +``` + +`launchd` 구성 예: + +```xml +<?xml version="1.0" encoding="UTF-8"?> +<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd"> +<plist version="1.0"> + <dict> + <key>KeepAlive</key> + <dict> + <key>SuccessfulExit</key> + <false/> + </dict> + <key>Label</key> + <string>com.datadoghq.agent</string> + <key>EnvironmentVariables</key> + <dict> + <key>DD_LOG_TO_CONSOLE</key> + <string>false</string> + <key>LD_LIBRARY_PATH</key> + <string>/opt/mqm/lib64:/opt/mqm/lib</string> + </dict> + <key>ProgramArguments</key> + <array> + <string>/opt/datadog-agent/bin/agent/agent</string> + <string>run</string> + </array> + <key>StandardOutPath</key> + <string>/var/log/datadog/launchd.log</string> + <key>StandardErrorPath</key> + <string>/var/log/datadog/launchd.log</string> + <key>ExitTimeOut</key> + <integer>10</integer> + </dict> +</plist> +``` + +Agent 업데이트가 있을 때마다 이러한 파일은 지워지며 다시 업데이트해야 합니다. + +또는 Linux를 사용하는 경우 MQ 클라이언트가 설치된 후 런타임 링커가 라이브러리를 찾을 수 있는지 확인하세요. 예를 들어 ldconfig를 사용하면 다음과 같습니다. + +라이브러리 위치를 ld 구성 파일에 넣습니다. + +```shell +sudo sh -c "echo /opt/mqm/lib64 > /etc/ld.so.conf.d/mqm64.conf" +sudo sh -c "echo /opt/mqm/lib > /etc/ld.so.conf.d/mqm.conf" +``` + +바인딩을 업데이트합니다. + +```shell +sudo ldconfig +``` + +#### Windows의 경우 + +IBM MQ 데이터 디렉터리에 `mqclient.ini`라는 파일이 있습니다. 일반적으로 `C:\ProgramData\IBM\MQ`입니다. +데이터 디렉터리를 가리키도록 환경 변수 `MQ_FILE_PATH`를 구성합니다. + +### 권한 및 인증 + +IBM MQ에서 권한을 설정하는 방법에는 여러 가지가 있습니다. 설정 방식에 따라 MQ 내에서 읽기 전용 권한 및 `+chg` 권한(선택 사항)이 있는 `datadog` 사용자를 생성합니다. [재설정 대기열 통계][6](`MQCMD_RESET_Q_STATS`)에 대한 메트릭을 수집하려면 `+chg` 권한이 필요합니다. 이러한 메트릭을 수집하지 않으려면 `collect_reset_queue_metrics` 구성을 비활성화할 수 있습니다. 재설정 대기열 통계의 성능 데이터를 수집하면 성능 데이터도 재설정됩니다. + +**참고**: "Queue Monitoring"은 MQ 서버에서 활성화되어야 하며 최소한 "Medium"으로 설정되어야 합니다. 이는 MQ UI를 사용하거나 서버 호스트의 `mqsc` 명령을 사용하여 수행할 수 있습니다. + +```text +> /opt/mqm/bin/runmqsc +5724-H72 (C) Copyright IBM Corp. 1994, 2018. +Starting MQSC for queue manager datadog. + + +ALTER QMGR MONQ(MEDIUM) MONCHL(MEDIUM) + 1 : ALTER QMGR MONQ(MEDIUM) MONCHL(MEDIUM) +AMQ8005I: IBM MQ queue manager changed. + + : +One MQSC command read. +No commands have a syntax error. +All valid MQSC commands were processed. +``` + +### 구성 + +{{< tabs >}} +{{% tab "Host" %}} + +#### 호스트 + +호스트에서 실행 중인 에이전트에 대해 이 점검을 구성하려면: + +##### 메트릭 수집 + +1. Agent의 구성 디렉터리 루트에 있는 `conf.d/` 폴더에서 `ibm_mq.d/conf.yaml` 파일을 편집하여 IBM MQ 성능 데이터 수집을 시작하세요. 사용 가능한 모든 구성 옵션은 [샘플 ibm_mq.d/conf.yaml][1]을 참조하세요. + 사용 방법에 따라 다양한 IBM MQ 구성 옵션이 있습니다. + + - `channel`: IBM MQ 채널 + - `queue_manager`: 설정된 대기열 관리자 + - `host`: IBM MQ가 실행 중인 호스트 + - `port`: IBM MQ가 노출한 포트 + - `convert_endianness`: MQ 서버가 AIX 또는 IBM i에서 실행 중인 경우 이 기능을 활성화해야 합니다. + + 사용자 이름과 비밀번호 설정을 사용하는 경우 및 `username` 및 `password`를 설정할 수 있습니다. 사용자 이름이 설정되지 않은 경우 Agent 프로세스 소유자(`dd-agent`)가 사용됩니다. + + **참고**: 이 검사는 `queues` 파라미터로 설정한 대기열만 모니터링합니다. + + ```yaml + queues: + - APP.QUEUE.1 + - ADMIN.QUEUE.1 + ``` + +2. [Agent를 재시작합니다][2]. + +##### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. 다음으로, 구성 파일을 적절한 MQ 로그 파일로 지정합니다. MQ 통합 구성 파일 하단에 있는 줄의 주석 처리를 제거하고 적절하게 수정할 수 있습니다. + + ```yaml + logs: + - type: file + path: '/var/mqm/log/<APPNAME>/active/AMQERR01.LOG' + service: '<APPNAME>' + source: ibm_mq + log_processing_rules: + - type: multi_line + name: new_log_start_with_date + pattern: "\d{2}/\d{2}/\d{4}" + ``` + +3. [Agent를 재시작합니다][2]. + +[1]: https://github.com/DataDog/integrations-core/blob/master/ibm_mq/datadog_checks/ibm_mq/data/conf.yaml.example +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "컨테이너화" %}} + +#### 컨테이너화 + +컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][1]에 다음 파라미터를 적용하는 방법이 안내되어 있습니다. + +##### 메트릭 수집 + +| 파라미터 | 값 | +| -------------------- | ------------------------------------------------------------------------------------------------------------------------------- | +| `<INTEGRATION_NAME>` | `ibm_mq` | +| `<INIT_CONFIG>` | 비어 있음 또는 `{}` | +| `<INSTANCE_CONFIG>` | `{"channel": "DEV.ADMIN.SVRCONN", "queue_manager": "datadog", "host":"%%host%%", "port":"%%port%%", "queues":["<QUEUE_NAME>"]}` | + +##### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +Datadog Agent에서 로그 수집은 기본값으로 비활성화되어 있습니다. 이를 활성화하려면 [쿠버네티스(Kubernetes) 로그 수집][2]을 참조하세요. + +| 파라미터 | 값 | +| -------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| `<LOG_CONFIG>` | `{"source": "ibm_mq", "service": "<SERVICE_NAME>", "log_processing_rules": {"type":"multi_line","name":"new_log_start_with_date", "pattern":"\d{2}/\d{2}/\d{4}"}}` | + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[Agent의 상태 하위 명령을 실행][7]하고 Checks 섹션에서 `ibm_mq`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "ibm_mq" >}} + + +### 이벤트 + +IBM MQ는 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "ibm_mq" >}} + + +## 트러블슈팅 + +### 재설정 대기열 통계 MQRC_NOT_AUTHORIZED 권한 경고 +다음 오류가 나타나는 경우: + +``` +Warning: Error getting pcf queue reset metrics for SAMPLE.QUEUE.1: MQI Error. Comp: 2, Reason 2035: FAILED: MQRC_NOT_AUTHORIZED +``` + +이는 `datadog` 사용자에게 재설정 대기열 메트릭을 수집할 `+chg` 권한이 없기 때문입니다. 이 문제를 해결하려면 [`setmqaut`를 사용하여][8] `datadog` 사용자에게 `+chg` 권한을 부여하고 재설정 대기열 메트릭을 수집하거나 `collect_reset_queue_metrics`를 비활성화할 수 있습니다. +```yaml + collect_reset_queue_metrics: false +``` + +### 높은 리소스 이용률 +IBM MQ 검사는 서버에서 쿼리를 수행합니다. 때때로 이러한 쿼리는 비용이 많이 들고 검사 성능 저하를 일으킬 수 있습니다. + +검사를 실행하는 데 시간이 오래 걸리거나 호스트에서 많은 리소스를 소모하는 것으로 확인되면 다음을 시도하여 검사 범위를 잠재적으로 줄일 수 있습니다. + +* `auto_discover_queues`를 사용하는 경우 특정 대기열만 검색하려면 `queue_patterns` 또는 `queue_regex`를 사용해 보세요. 이는 시스템이 동적 대기열을 생성할 때 특히 유용합니다. +* `queue_patterns` 또는 `queue_regex`를 사용하여 대기열을 자동 검색하는 경우 _더 적은_ 대기열과 일치하도록 패턴이나 정규식을 강화해 보세요. +* 채널이 너무 많을 경우 `auto_discover_channels`를 비활성합니다. +* `collect_statistics_metrics`를 비활성화합니다. + +### 로그 오류 +* `Unpack for type ((67108864,)) not implemented`: 이와 같은 오류가 표시되고 MQ 서버가 IBM OS에서 실행되고 있는 경우 `convert_endianness`를 활성화하고 Agent를 다시 시작하세요. + +### 로그 경고 +* `Error getting [...]: MQI Error. Comp: 2, Reason 2085: FAILED: MQRC_UNKNOWN_OBJECT_NAME`: 이와 같은 메시지가 표시된다면 존재하지 않는 대기열에서 통합이 메트릭을 수집하려고 하기 때문입니다. 이는 잘못된 구성으로 인해 발생하거나`auto_discover_queues`를 사용하는 경우 통합이 [동적 대기열][9]을 검색할 수 있으며 메트릭을 수집하려고 할 때 대기열이 더 이상 존재하지 않기 때문일 수 있습니다. 이 경우 더 엄격한 `queue_patterns` 또는 `queue_regex`를 제공하여 문제를 완화하거나 경고를 무시할 수 있습니다. + + +### 기타 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog으로 IBM MQ 메트릭 및 로그 모니터링][11] + + +[1]: https://www.ibm.com/products/mq +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://www.ibm.com/docs/en/ibm-mq/9.3?topic=roadmap-mq-downloads#mq_downloads_admins__familyraclients__title__1 +[4]: https://www.ibm.com/support/fixcentral/swg/selectFixes?parent=ibm~WebSphere&product=ibm/WebSphere/WebSphere+MQ&release=9.3.0.0&platform=All&function=fixid&fixids=*IBM-MQC-Redist-* +[5]: https://developer.apple.com/library/archive/documentation/Security/Conceptual/System_Integrity_Protection_Guide/RuntimeProtections/RuntimeProtections.html#//apple_ref/doc/uid/TP40016462-CH3-SW1 +[6]: https://www.ibm.com/docs/en/ibm-mq/9.1?topic=formats-reset-queue-statistics +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://www.ibm.com/docs/en/ibm-mq/9.2?topic=reference-setmqaut-grant-revoke-authority +[9]: https://www.ibm.com/docs/en/ibm-mq/9.2?topic=queues-dynamic-model +[10]: https://docs.datadoghq.com/ko/help/ +[11]: https://www.datadoghq.com/blog/monitor-ibmmq-with-datadog \ No newline at end of file diff --git a/content/ko/logs/guide/access-your-log-data-programmatically.md b/content/ko/logs/guide/access-your-log-data-programmatically.md index 140a4a55c4f27..0161ba954d8a6 100644 --- a/content/ko/logs/guide/access-your-log-data-programmatically.md +++ b/content/ko/logs/guide/access-your-log-data-programmatically.md @@ -17,15 +17,15 @@ title: 로그 검색 API를 활용하여 로그 데이터에 프로그래밍으 [로그 검색 API ][1]을 사용하여 프로그래밍으로 로그 데이터에 액세스하고 쿼리를 실행합니다. -본 지침에서는 다음 예시를 설명합니다. +본 지침에서는 다음 예시를 살펴봅니다. * [기본 검색](#basic-search) * [패싯 또는 타임스탬프로 정렬](#sort-by-facet-or-timestamp) * [검색 결과 수 제한](#limit-the-number-of-results-retrieved) * [시간 설정](#time-settings) -* [페이지 매김](#pagination) +* [페이지 매김](#페이지 매김) -## 전제 조건 +## 사전 필수 조건 - 로그 검색 API를 사용하려면 [API 키][2]와 [애플리케이션 키][3]가 있어야 합니다. 애플리케이션 키를 생성한 사용자는 데이터에 접근할 수 있는 적절한 권한이 있어야 합니다. 아래 예시를 사용할 때 `<DATADOG_API_KEY>`와 `<DATADOG_APP_KEY>`를 Datadog API 키와 Datadog 애플리케이션 키로 각각 대체하세요. @@ -39,7 +39,7 @@ title: 로그 검색 API를 활용하여 로그 데이터에 프로그래밍으 `from`은 `start time`, `to`은 로그 데이터에 대한 `end time` 을 나타냅니다. `query`은 검색 쿼리를 반드시 실행해야 함을 의미합니다. -**API 불러오기:** +**API 호출:** ```bash @@ -143,7 +143,7 @@ curl -L -X POST "https://api.{{< region-param key="dd_site" code="true" >}}/api/ 다음 API 호출을 사용하여 검색한 로그 이벤트를 패싯(예: `pageViews`)에 따라 오름차순으로 정렬합니다. 또한, 패싯에 `@`을 포함합니다. 내림차순으로 정렬하려면 `-` hyphen in front of the facet name such as `-@pageViews`를 사용합니다. 정렬 순서 기본값은 타임스탬프별 내림차순입니다. -**API 불러오기:** +**API 호출:** ```bash @@ -246,7 +246,7 @@ curl -L -X POST "https://api.{{< region-param key="dd_site" code="true" >}}/api/ 다음 API 호출로 검색한 로그 이벤트는 `timestamp` 값에 따라 오름차순으로 정렬됩니다. 기본값은 내림차순 정렬입니다. -**API 불러오기:** +**API 호출:** ```bash diff --git a/content/ko/logs/guide/correlate-logs-with-metrics.md b/content/ko/logs/guide/correlate-logs-with-metrics.md index 846bf81507abb..d767a6615b2af 100644 --- a/content/ko/logs/guide/correlate-logs-with-metrics.md +++ b/content/ko/logs/guide/correlate-logs-with-metrics.md @@ -5,7 +5,7 @@ further_reading: text: 로그 탐색 방법 보기 - link: /logs/logging_without_limits/ tag: 설명서 - text: 제한없는 로그 수집* + text: Logging without Limits* - link: /logs/live_tail/ tag: 설명서 text: Datadog 라이브 테일 기능 @@ -51,7 +51,7 @@ Datadog 앱 내에서 로그와 메트릭을 상호 연관시키는 몇 가지 ## 참고 자료 {{< partial name="whats-next/whats-next.html" >}} <br> -\*제한 없는 로그 수집은 Datadog, Inc.의 상표입니다. +\*제한 없는 로깅은 Datadog, Inc.의 상표입니다. [1]: /ko/logs/explorer/ [2]: /ko/dashboards/ diff --git a/content/ko/logs/log_collection/roku.md b/content/ko/logs/log_collection/roku.md index eacfb87c2c642..9d198f6f808d5 100644 --- a/content/ko/logs/log_collection/roku.md +++ b/content/ko/logs/log_collection/roku.md @@ -2,8 +2,8 @@ description: Roku 채널에서 로그를 수집합니다. further_reading: - link: https://github.com/DataDog/dd-sdk-roku - tag: GitHub - text: dd-sdk-roku Source code + tag: 소스 코드 + text: dd-sdk-roku용 소스 코드 - link: logs/explorer tag: 설명서 text: 로그 탐색 방법 알아보기 diff --git a/content/ko/metrics/custom_metrics/agent_metrics_submission.md b/content/ko/metrics/custom_metrics/agent_metrics_submission.md index 15ae7e5b8bdf9..3cf1ecca170fb 100644 --- a/content/ko/metrics/custom_metrics/agent_metrics_submission.md +++ b/content/ko/metrics/custom_metrics/agent_metrics_submission.md @@ -32,11 +32,11 @@ self.monotonic_count(name, value, tags=None, hostname=None, device_name=None) | 파라미터 | 유형 | 필수 | 기본값 | 설명 | |---------------|-----------------|----------|---------------|-------------------------------------------------------------------------------------| -| `name` | 스트링 | 예 | - | 메트릭 이름. | -| `value` | Float | 예 | - | 메트릭 값. | -| `tags` | 스트링 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | -| `hostname` | 스트링 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | -| `device_name` | 스트링 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | +| `name` | 문자열 | Yes | - | 메트릭 이름. | +| `value` | Float | Yes | - | 메트릭 값. | +| `tags` | 문자열 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | +| `hostname` | 문자열 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | +| `device_name` | 문자열 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | ### `count()` @@ -52,11 +52,11 @@ self.count(name, value, tags=None, hostname=None, device_name=None) | 파라미터 | 유형 | 필수 | 기본값 | 설명 | |---------------|-----------------|----------|---------------|-------------------------------------------------------------------------------------| -| `name` | 스트링 | 예 | - | 메트릭 이름. | -| `value` | Float | 예 | - | 메트릭 값. | -| `tags` | 스트링 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | -| `hostname` | 스트링 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | -| `device_name` | 스트링 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | +| `name` | 문자열 | Yes | - | 메트릭 이름. | +| `value` | Float | Yes | - | 메트릭 값. | +| `tags` | 문자열 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | +| `hostname` | 문자열 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | +| `device_name` | 문자열 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | {{% /tab %}} {{% tab "Gauge" %}} @@ -75,11 +75,11 @@ self.gauge(name, value, tags=None, hostname=None, device_name=None) | 파라미터 | 유형 | 필수 | 기본값 | 설명 | |---------------|-----------------|----------|---------------|-------------------------------------------------------------------------------------| -| `name` | 스트링 | 예 | - | 메트릭 이름. | -| `value` | Float | 예 | - | 메트릭 값. | -| `tags` | 스트링 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | -| `hostname` | 스트링 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | -| `device_name` | 스트링 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | +| `name` | 문자열 | Yes | - | 메트릭 이름. | +| `value` | Float | Yes | - | 메트릭 값. | +| `tags` | 문자열 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | +| `hostname` | 문자열 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | +| `device_name` | 문자열 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | {{% /tab %}} {{% tab "Rate" %}} @@ -98,11 +98,11 @@ self.rate(name, value, tags=None, hostname=None, device_name=None) | 파라미터 | 유형 | 필수 | 기본값 | 설명 | |---------------|-----------------|----------|---------------|-------------------------------------------------------------------------------------| -| `name` | 스트링 | 예 | - | 메트릭 이름. | -| `value` | Float | 예 | - | 메트릭 값. | -| `tags` | 스트링 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | -| `hostname` | 스트링 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | -| `device_name` | 스트링 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | +| `name` | 문자열 | Yes | - | 메트릭 이름. | +| `value` | Float | Yes | - | 메트릭 값. | +| `tags` | 문자열 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | +| `hostname` | 문자열 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | +| `device_name` | 문자열 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | {{% /tab %}} @@ -122,11 +122,11 @@ self.histogram(name, value, tags=None, hostname=None, device_name=None) | 파라미터 | 유형 | 필수 | 기본값 | 설명 | |---------------|-----------------|----------|---------------|-------------------------------------------------------------------------------------| -| `name` | 스트링 | 예 | - | 메트릭 이름. | -| `value` | Float | 예 | - | 메트릭 값. | -| `tags` | 스트링 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | -| `hostname` | 스트링 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | -| `device_name` | 스트링 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | +| `name` | 문자열 | Yes | - | 메트릭 이름. | +| `value` | Float | Yes | - | 메트릭 값. | +| `tags` | 문자열 목록 | 아니요 | - | 해당 메트릭과 연관된 태그 목록. | +| `hostname` | 문자열 | 아니요 | 현재 호스트 | 해당 메트릭과 연관된 호스트네임. | +| `device_name` | 문자열 | 아니요 | - | 더 이상 사용되지 않음. 대신 `device:<DEVICE_NAME>` 타입의 태그를 태그 목록에 추가합니다. | {{% /tab %}} {{< /tabs >}} @@ -199,7 +199,7 @@ self.histogram(name, value, tags=None, hostname=None, device_name=None) ) ``` -4. [Agent를 다시 시작합니다][4]. +4. [Agent를 재시작합니다][4]. 5. [에이전트 상태 하위 명령어][5] 실행으로 커스텀 점검이 올바로 동작하는지 확인합니다. 점검 섹션에서 `metrics_example`을 찾습니다. ```text @@ -232,7 +232,7 @@ self.histogram(name, value, tags=None, hostname=None, device_name=None) [1]: /ko/developers/custom_checks/write_agent_check/ [2]: /ko/metrics/types/ -[3]: /ko/agent/guide/agent-configuration-files/#agent-configuration-directory -[4]: /ko/agent/guide/agent-commands/#restart-the-agent -[5]: /ko/agent/guide/agent-commands/#agent-information +[3]: /ko/agent/configuration/agent-configuration-files/#agent-configuration-directory +[4]: /ko/agent/configuration/agent-commands/#restart-the-agent +[5]: /ko/agent/configuration/agent-commands/#agent-information [6]: https://app.datadoghq.com/metric/summary \ No newline at end of file diff --git a/content/ko/metrics/custom_metrics/type_modifiers.md b/content/ko/metrics/custom_metrics/type_modifiers.md index 2dd72d6856cb3..a4be2e403f126 100644 --- a/content/ko/metrics/custom_metrics/type_modifiers.md +++ b/content/ko/metrics/custom_metrics/type_modifiers.md @@ -21,7 +21,7 @@ title: 메트릭 유형 한정자 사례와 제출 방법에 따라 둘 중 더 적합한 메트릭 유형을 선택해 제출합니다. 예: -| 제출된 메트릭 유형 | Use case | +| 제출된 메트릭 유형 | 사용 사례 | |-----------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | `RATE` | 여러 호스트에서 시간에 따른 수신 요청 수를 모니터링하고자 합니다. | | `RATE` | 서버에서 시간별 제출 개수를 일관적으로 통제하기 어려운 조건이기 때문에 개별 간격을 정규화하여 업스트림으로 비교하고자 합니다. | @@ -77,8 +77,6 @@ title: 메트릭 유형 한정자 ### `weighted()` 한정자 -<div class="alert alert-info"><code>.weighted()</code> 한정자는 현재 베타 서비스 중입니다. 이 기능을 사용하려면 <a href="https://docs.datadoghq.com/help/" target="_blank">지원 서비스에 문의하세요</a>.</div> - `pod name`과 `container_name`과 같은 태그는 태그 변동률이 높습니다. 특히 비용 관리, 용량 계획, 컨테이너화된 애플리케이션용 자동 크기 조정 등을 위해 쿼리를 생성할 때 더욱 그러합니다. 태그 변동과 관계 없이 게이지에 대해 수학적으로 정확한 쿼리를 생성하려면 인앱 한정자 `.weighted()`를 사용하세요. `.weighted()` 한정자는 Datadog에서 자주 바뀌는 변동 태그 수명에 따라 메트릭 값을 적절하게 가중합니다. `.weighted()` 한정자는 다음 두 조건을 충족할 때 게이지 쿼리에 자동으로 추가됩니다. diff --git a/content/ko/monitors/guide/create-cluster-alert.md b/content/ko/monitors/guide/create-cluster-alert.md index ee3e9cf8fe036..3e0903c4cd286 100644 --- a/content/ko/monitors/guide/create-cluster-alert.md +++ b/content/ko/monitors/guide/create-cluster-alert.md @@ -30,6 +30,6 @@ title: 클러스터 경고를 생성하여 일정 비율의 그룹이 위험 상 모니터링은 지난 10분 동안 CPU 사용량이 50%를 초과한 호스트의 비율을 추적하고, 그 중 지정된 조건을 충족하는 호스트가 40% 이상인 경우 알림을 생성합니다. -{{< img src="monitors/faq/cluster-status.png" alt="클러스터-경고-상태" >}} +## 참고 자료 {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ko/monitors/types/process.md b/content/ko/monitors/types/process.md index d79db81a6e762..6c352aaf08096 100644 --- a/content/ko/monitors/types/process.md +++ b/content/ko/monitors/types/process.md @@ -62,13 +62,13 @@ title: 실시간 프로세스 모니터 | `foo OR bar` | 명령어 라인에 `foo` 또는 `bar`이 포함된 모든 프로세스와 일치함 | | `foo or NOT bar` | `foo`을 포함하거나 `bar`을 포함하지 않는 모든 프로세스와 일치함, | -#### 경고 그룹화 +#### 알림 그룹화 `Simple Alert` (기본값): 모든 보고 출처에 대한 알림을 집계합니다. 집계한 값이 설정한 값을 충족하면 하나의 알림을 받게 됩니다. `Multi Alert`: 그룹 파라미터에 따라 각 출처에 알림을 적용합니다. 설정한 조건을 충족하는 각 그룹에 대해 알림을 받습니다. -### 알림 조건 설정 +### 경고 조건 설정 - 프로세스 개수는 `above`, `above or equal to`, `below`, 또는 `below or equal to`였습니다. - `5 minutes`, `15 minutes`, `1 hour` 전 또는 그 이전의 임계값입니다. 또한 `custom`을 사용하여 5분 ~ 24시간 사이의 값을 설정할 수도 있습니다. @@ -94,7 +94,7 @@ title: 실시간 프로세스 모니터 {{< partial name="whats-next/whats-next.html" >}} [1]: /ko/infrastructure/process/ -[2]: https://app.datadoghq.com/monitors#create/live_process +[2]: https://app.datadoghq.com/monitors/create/live_process [3]: /ko/infrastructure/process/#search-syntax [4]: https://app.datadoghq.com/process [5]: /ko/monitors/configuration/#advanced-alert-conditions diff --git a/content/ko/network_monitoring/performance/setup.md b/content/ko/network_monitoring/performance/setup.md index bd65804c3f22d..a467234a9ee39 100644 --- a/content/ko/network_monitoring/performance/setup.md +++ b/content/ko/network_monitoring/performance/setup.md @@ -49,7 +49,7 @@ Datadog 네트워크 성능 모니터링(NPM)은 서비스, 컨테이너, 가용 데이터 수집은 네트워크 커널 장치 드라이버를 사용하여 진행됩니다. Windows 버전 2012 R2 (및 Windows 10을 포함한 동급 데스크톱 OS) 이상에서, Datadog Agent 버전 7.27.1부터 지원됩니다. -#### 맥OS(macOS) +#### macOS Datadog 네트워크 성능 모니터링은 macOS 플랫폼을 지원하지 않습니다. @@ -125,7 +125,7 @@ Datadog 에이전트로 네트워크 성능 모니터링 기능을 사용하도 **참고**: 시스템에서 `systemctl` 명령을 사용할 수 없는 경우, `sudo service datadog-agent-sysprobe start`명령을 대신 실행합니다. 그 다음 `datadog-agent` 시작 전에, 부팅 시 시작되도록 설정합니다. -5. [에이전트를 다시 시작합니다][2]. +5. [Agent를 재시작합니다][2]. ```shell sudo systemctl restart datadog-agent @@ -164,7 +164,7 @@ SELinux가 활성화된 다른 시스템에서 네트워크 성능 모니터링 restorecon -v /opt/datadog-agent/embedded/bin/system-probe ``` -5. [에이전트를 다시 시작합니다][2]. +5. [Agent를 재시작합니다][2]. **참고**: 이 지침을 사용하려면 시스템에 대부분의 표준 배포판(우분투(Ubuntu), 데비안(Debian), RHEL, CentOS, SUSE)에서 사용할 수 있는 SELinux 유틸리티(`checkmodule`, `semodule`, `semodule_package`, `semanage`,`restorecon`)가 설치되어 있어야 합니다. 설치 방법에 대한 자세한 내용을 확인하려면 사용 중인 배포판을 확인하세요. @@ -191,7 +191,7 @@ Windows 호스트용 네트워크 성능 모니터링을 활성화하려면 다 network_config: enabled: true ``` -3. [에이전트를 다시 시작합니다][2]. +3. [Agent를 재시작합니다][2]. PowerShell (`powershell.exe`)의 경우: ```shell @@ -209,14 +209,23 @@ Windows 호스트용 네트워크 성능 모니터링을 활성화하려면 다 {{% /tab %}} {{% tab "Kubernetes" %}} -Helm으로 쿠버네티스(Kubernetes)용 네트워크 성능 모니터링을 활성화하려면 다음을 추가합니다. +Helm을 사용하여 Kubernetes에서 네트워크 성능 모니터링을 활성화하려면 `values.yaml` 파일에 다음을 추가하세요.</br> +**Helm 차트 v2.4.39+가 필요합니다**. 자세한 내용은 [Datadog Helm 차트 문서][1]를 참조하세요. ```yaml datadog: networkMonitoring: enabled: true ``` -values.yaml에 추가하려면, **Helm 차트 v2.4.39 버전 이상이 필요**합니다. 자세한 내용을 확인하려면 [Datadog 헬름 차트 문서][1]를 참조하세요. + +**참고**: Kubernetes 환경에서 NPM을 구성할 때 `Error: error enabling protocol classifier: permission denied` 권한 오류가 발생하는 경우 `values.yaml`에 다음을 추가하세요(Helm 차트의 [섹션][5] 참조). + + ```yaml + agents: + podSecurity: + apparmor: + enabled: true + ``` Helm을 사용하지 않는다면 처음부터 쿠버네티스(Kubernetes)에서 네트워크 성능 모니터링을 사용하도록 설정할 수 있습니다: @@ -351,6 +360,7 @@ Helm을 사용하지 않는다면 처음부터 쿠버네티스(Kubernetes)에서 [2]: /resources/yaml/datadog-agent-npm.yaml [3]: https://app.datadoghq.com/organization-settings/api-keys [4]: /ko/agent/kubernetes/ +[5]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/values.yaml#L1519-L1523 {{% /tab %}} {{% tab "Operator" %}} <div class="alert alert-warning">Datadog 오퍼레이터는 일반적으로 `1.0.0` 버전과 함께 사용할 수 있으며, DatadogAgent 커스텀 리소스의 `v2alpha1`버전을 조정합니다.</div> @@ -372,7 +382,7 @@ spec: [1]: https://github.com/DataDog/datadog-operator {{% /tab %}} -{{% tab "Docker" %}} +{{% tab "도커" %}} 도커(Docker)에서 네트워크 성능 모니터링 기능을 사용하도록 구성하려면 컨테이너 에이전트를 시작할 때 다음 설정을 활용하세요. @@ -440,17 +450,33 @@ services: {{< /tabs >}} {{< site-region region="us,us3,us5,eu" >}} -### 향상된 확인 기능 +### Enhanced resolution 옵션으로 클라우드 통합용 리소스 수집을 활성화하여 네트워크 성능 모니터링에서 클라우드 관리 엔터티를 검색할 수 있습니다. -- Azure 로드 밸런서 및 애플리케이션 게이트웨이에 대한 가시성을 확보하려면 [Azure 통합][1]을 설치하세요. -- AWS 로드 밸런서에 대한 가시성을 확보하기 위해 [AWS 통합][2]을 설치합니다. **ENI 및 EC2 메트릭 수집을 활성화해야 합니다**. +- AWS Load Balancer 및 애플리케이션 게이트웨이에 대한 가시성을 확보하려면 [Azure 통합][101]을 설치하세요. +- AWS Load Balancer에 대한 가시성을 확보하려면 [AWS 통합][102]을 설치하세요. **ENI 및 EC2 메트릭 수집을 활성화해야 합니다** + +이러한 기능에 대한 자세한 내용은 [Cloud service enhanced resolution][103]을 참조하세요. -해당 기능에 대한 자세한 내용을 확인하려면 [향상된 클라우드 서비스 확인 기능][3]을 참조하세요. +### Failed connections (비공개 베타) + +<div class="alert alert-warning">Failed Connections는 비공개 베타 버전입니다. <a href="/network_monitoring/performance/network_analytics/?tab=loadbalancers#tcp">실패한 연결 메트릭</a>을 보려면 Datadog 담당자에게 액세스 권한을 요청하세요.</div> + +Agent가 실패한 연결에 대한 데이터 수집을 시작하도록 하려면 `/etc/datadog-agent/system-probe.yaml` 파일에 다음 플래그를 추가하세요(Windows의 경우 `C:\ProgramData\Datadog\system-probe.yaml`). + +```yaml +network_config: # 7.24.1 이전 Agent 버전의 경우 system_probe_config를 사용하세요. + ## @param enabled - boolean - optional - default: false + ## 네트워크 성능 모니터링을 활성화하려면 true로 설정합니다. + # + enabled: true + enable_tcp_failed_connections: true + +``` - [1]: /integrations/azure - [2]: /integrations/amazon_web_services/#resource-collection - [3]: /network_monitoring/performance/network_analytics/#cloud-service-enhanced-resolution +[101]: /ko/integrations/azure +[102]: /ko/integrations/amazon_web_services/#resource-collection +[103]: /ko/network_monitoring/performance/network_analytics/#cloud-service-enhanced-resolution {{< /site-region >}} diff --git a/content/ko/real_user_monitoring/browser/advanced_configuration.md b/content/ko/real_user_monitoring/browser/advanced_configuration.md new file mode 100644 index 0000000000000..5d828591109ec --- /dev/null +++ b/content/ko/real_user_monitoring/browser/advanced_configuration.md @@ -0,0 +1,1037 @@ +--- +aliases: +- /ko/real_user_monitoring/installation/advanced_configuration/ +- /ko/real_user_monitoring/browser/modifying_data_and_context/ +further_reading: +- link: /real_user_monitoring/browser/tracking_user_actions + tag: 설명서 + text: 사용자 액션 추적 +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: 블로그 + text: 실제 사용자 모니터링 +- link: /real_user_monitoring/browser/data_collected/ + tag: 설명서 + text: 수집된 RUM 브라우저 데이터 +- link: /real_user_monitoring/explorer/ + tag: 설명서 + text: Datadog에서 보기 탐색 +- link: /real_user_monitoring/explorer/visualize/ + tag: 설명서 + text: 이벤트에 시각화 적용 +- link: /logs/log_configuration/attributes_naming_convention + tag: 설명서 + text: Datadog 표준 속성 +title: 고급 구성 +--- + +## 개요 + +RUM에서 수집한 [데이터 및 컨텍스트][1]를 다양한 방법으로 수정하여 필요에 따라 지원할 수 있습니다: + +- 개인 식별이 가능한 정보와 같은 민감한 데이터를 보호합니다. +- 사용자 세션을 해당 사용자의 내부 ID와 연결하여 지원합니다. +- 데이터 샘플링을 통해 수집하는 RUM 데이터 양을 줄입니다. +- 데이터의 출처에 대해 기본 속성이 제공하는 것보다 더 많은 컨텍스트를 제공합니다. + +## 기본 RUM 보기 이름 재정의 + +RUM Browser SDK는 사용자가 새 페이지에 액세스할 때마다 또는 페이지의 URL이 변경될 때(단일 페이지 애플리케이션의 경우) [보기 이벤트][2]를 자동으로 생성합니다. 보기 이름은 현재 페이지의 URL에서 생성되며, 가변 영숫자 ID는 자동으로 삭제됩니다. 예를 들어, `/dashboard/1234`는 `/dashboard/?`가 됩니다. + +[버전 2.17.0][3]부터 `trackViewsManually` 옵션을 사용하여 보기 이벤트를 수동으로 추적함으로써 보기 이름을 추가하고 팀이 소유한 전용 서비스에 할당할 수 있습니다: + +1. RUM Browser SDK를 초기화할 때 `trackViewsManually`를 true로 설정합니다. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + import { datadogRum } from '@datadog/browser-rum'; + + datadogRum.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }) + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && + window.DD_RUM.init({ + ..., + trackViewsManually: true, + ... + }); + ``` + {{% /tab %}} + {{< /tabs >}} + +2. 새 페이지 또는 경로 변경(단일 페이지 애플리케이션의 경우)이 있을 때마다 보기를 시작해야 합니다. 보기가 시작될 때 RUM 데이터가 수집됩니다. [버전 4.13.0][17]부터는 선택적으로 관련 서비스 이름과 버전을 정의할 수도 있습니다. + + - View Name: 기본값은 페이지 URL 경로입니다. + - Service: RUM 애플리케이션을 만들 때 지정된 기본 서비스로 기본 설정됩니다. + - Version: RUM 애플리케이션을 만들 때 지정된 기본 버전으로 기본 설정됩니다. + + 자세한 내용은 [브라우저 모니터링 설정][4]을 참조하세요. + + <details open> + <summary>Latest version</summary> + The following example manually tracks the pageviews on the <code>checkout</code> page in a RUM application. Use <code>checkout</code> for the view name and associate the <code>purchase</code> service with version <code>1.2.3</code>. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + datadogRum.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && window.DD_RUM.startView({ + name: 'checkout', + service: 'purchase', + version: '1.2.3' + }) + ``` + {{% /tab %}} + {{< /tabs >}} + </details> + + <details> + <summary>before <code>v4.13.0</code></summary> + The following example manually tracks the pageviews on the <code>checkout</code> page in a RUM application. No service or version can be specified. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + datadogRum.startView('checkout') + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + window.DD_RUM.onReady(function() { + window.DD_RUM.startView('checkout') + }) + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + window.DD_RUM && window.DD_RUM.startView('checkout') + ``` + {{% /tab %}} + {{< /tabs >}} + + </details> + +React, Angular, Vue 또는 다른 프론트엔드 프레임워크를 사용하는 경우 Datadog은 프레임워크 라우터 수준에서 `startView` 로직을 구현할 것을 권장합니다. + +### React 라우터 계측 + +기본 RUM 보기 이름을 재정의하여 사용자가 React 애플리케이션에서 정의한 방법과 일치하도록 하려면 다음 단계를 수행해야 합니다. + +**참고**: 이 지침서는 **React Router v6** 라이브러리에만 적용됩니다. + +1. [위의](#override-default-rum-view-names) 설명대로 RUM browser SDK를 초기화할 때 `trackViewsManually`를 `true`로 설정합니다. + +2. 각 경로 변경에 대한 보기를 시작합니다. + + {{< tabs >}} + {{% tab "NPM" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + import { datadogRum } from "@datadog/browser-rum"; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + datadogRum.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + + {{% /tab %}} + {{% tab "CDN async" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + DD_RUM.onReady(function() { + DD_RUM.startView({name: viewName}); + }); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {{% /tab %}} + {{% tab "CDN sync" %}} + ```javascript + import { matchRoutes, useLocation } from 'react-router-dom'; + import { routes } from 'path/to/routes'; + + export default function App() { + // Track every route change with useLocation API + let location = useLocation(); + + useEffect(() => { + const routeMatches = matchRoutes(routes, location.pathname); + const viewName = routeMatches && computeViewName(routeMatches); + if (viewName) { + window.DD_RUM && + window.DD_RUM.startView({name: viewName}); + } + }, [location.pathname]); + + ... + } + + // Compute view name out of routeMatches + function computeViewName(routeMatches) { + let viewName = ""; + for (let index = 0; index < routeMatches.length; index++) { + const routeMatch = routeMatches[index]; + const path = routeMatch.route.path; + // Skip pathless routes + if (!path) { + continue; + } + + if (path.startsWith("/")) { + // Handle absolute child route paths + viewName = path; + } else { + // Handle route paths ending with "/" + viewName += viewName.endsWith("/") ? path : `/${path}`; + } + } + + return viewName || '/'; + } + ``` + {{% /tab %}} + {{< /tabs >}} + +## RUM 데이터 강화 및 제어 + +RUM Browser SDK는 RUM 이벤트를 캡처하고 해당 이벤트의 주요 속성을 입력합니다. `beforeSend` 콜백 기능을 통해 Datadog으로 전송되기 전 RUM Browser SDK에서 수집한 모든 이벤트에 액세스할 수 있습니다. + +RUM 이벤트를 가로채면 다음과 같은 작업을 수행할 수 있습니다: + +- 추가적인 컨텍스트 속성으로 RUM 이벤트 강화 +- RUM 이벤트를 수정하여 해당 내용을 변경하거나 민감한 시퀀스 수정 ([편집 가능한 속성 목록](#modify-the-content-of-a-rum-event)) +- 선택한 RUM 이벤트 삭제 + +[버전 2.13.0][5]부터 `beforeSend`는 두가지 인수를 사용합니다: RUM Browser SDK에서 생성된 `event`, 그리고 RUM 이벤트 생성을 트리거한 `context`입니다. + +```javascript +function beforeSend(event, context) +``` + +잠재적인 `context` 값은 다음과 같습니다: + +| RUM 이벤트 유형 | 컨텍스트 | +|------------------|---------------------------| +| 보기 | [위치][6] | +| 작업 | [이벤트][7] | +| 리소스 (XHR) | [XMLHttpRequest][8] 및 [PerformanceResourceTiming][9] | +| 리소스 (Fetch) | [요청][10], [응답][11] 및 [PerformanceResourceTiming[9] | +| 리소스 (기타) | [PerformanceResourceTiming][9] | +| 오류 | [오류][12] | +| 긴 작업 | [PerformanceLongTaskTiming][13] | + +자세한 내용은 [RUM 데이터 강화 및 제어 가이드][14]를 참조하세요. + +### RUM 이벤트 강화 + +[Global Context API](#global-context) 또는 [기능 플래그 데이터 수집](#enrich-rum-events-with-feature-flags)으로 추가된 속성과 함께 이벤트에 추가 컨텍스트 속성을 추가할 수 있습니다. 예를 들어, 가져오기 응답 개체에서 추출한 데이터로 RUM 리소스 이벤트에 태그를 지정할 수 있습니다: + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event, context) => { + // RUM 리소스의 응답 헤더를 수집합니다. + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event, context) => { + // collect a RUM resource's response headers + if (event.type === 'resource' && event.resource.type === 'fetch') { + event.context.responseHeaders = Object.fromEntries(context.response.headers) + } + return true + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +사용자가 여러 팀에 속한 경우, 호출에 포함된 키-값 쌍을 Global Context API에 추가합니다. + +RUM Browser SDK는 다음을 무시합니다: + +- `event.context` 외부에서 추가된 속성 +- RUM 보기 이벤트 컨텍스트에 대한 수정사항 + +### 기능 플래그를 사용하여 RUM 이벤트 강화 + +[기능 플래그로 RUM 이벤트 데이터를 강화][14]하여 성능 모니터링에 대한 추가 컨텍스트와 가시성을 얻을 수 있습니다. 이를 통해 어떤 사용자에게 특정 사용자 경험이 표시되는지, 그리고 이것이 사용자의 성능에 부정적인 영향을 미치는지 확인할 수 있습니다. + +### RUM 이벤트 내용 수정 + +예를 들어 웹 애플리케이션 URL에서 이메일 주소를 삭제할 수 있습니다: + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + // 보기 URL에서 이메일 제거 + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // 보기 URL에서 이메일 제거 + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + // 보기 URL에서 이메일 제거 + event.view.url = event.view.url.replace(/email=[^&]*/, "email=REDACTED") + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +다음 이벤트 속성을 업데이트할 수 있습니다: + +| 속성 | 유형 | 설명 | +|-----------------------|-----------|-----------------------------------------------------------------------------------------------------| +| `view.url` | 문자열 | 활성화된 웹 페이지의 URL. | +| `view.referrer` | 문자열 | 현재 요청된 페이지로 연결되는 링크를 따라간 이전 웹 페이지의 URL. | +| `view.name` | 문자열 | 현재 보기의 이름. | +| `action.target.name` | 문자열 | 사용자가 상호 작용한 요소. 자동으로 수집된 액션에만 해당합니다. | +| `error.message` | 문자열 | 오류를 설명하는 간결하고 사람이 읽을 수 있는 한 줄 메시지. | +| `error.stack ` | 문자열 | 스택 트레이스 또는 오류에 대한 보완 정보. | +| `error.resource.url` | 문자열 | 오류를 트리거한 리소스 URL. | +| `resource.url` | 문자열 | 리소스 URL. | +| `context` | 개체 | [Global Context API](#global-context)로 추가하거나 수동으로 이벤트를 생성할 때 추가된 속성(예: `addError` 및 `addAction`)입니다. RUM 보기 이벤트 `context`는 읽기 전용입니다. | + +RUM Browser SDK는 위에 나열되지 않은 이벤트 속성에 대한 수정 사항은 무시합니다. 이벤트 속성에 대한 자세한 내용은 [RUM Browser SDK GitHub 리포지토리][15]를 참조하세요. + +### RUM 이벤트 삭제 + +`beforeSend` API과 함께 `false`를 반환하여 RUM 이벤트를 삭제합니다: + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + }, + ... + }, + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + ..., + beforeSend: (event) => { + if (shouldDiscard(event)) { + return false + } + ... + }, + ... + }); +``` +{{% /tab %}} +{{< /tabs >}} + +**참고**: 보기 이벤트는 삭제할 수 없습니다. + +## 사용자 세션 + +RUM 세션에 사용자 정보를 추가하면 다음과 같이 도움이 될 수 있습니다. +* 특정 사용자의 활동 경로를 추적합니다. +* 오류의 영향을 가장 많이 받는 사용자를 파악합니다. +* 가장 중요한 사용자를 위해 성능을 모니터링합니다. + +{{< img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="RUM UI의 사용자 API" >}} + +다음 속성은 선택 사항이지만, Datadog은 이 중 하나 이상을 제공할 것을 권장합니다: + +| 속성 | 유형 | 설명 | +|------------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | 문자열 | 고유한 사용자 식별자. | +| `usr.name` | 문자열 | RUM UI에 기본적으로 표시되는 사용자 친화적인 이름. | +| `usr.email` | 문자열 | 사용자 이메일. 사용자 이름이 없는 경우 RUM UI에 표시됨. Gravatars를 가져오는 데 사용되기도 함. | + +권장 속성 외에 추가 속성을 추가하여 필터링 기능을 향상시킬 수 있습니다. 예를 들어 사용자 요금제 또는 해당 사용자가 속한 사용자 그룹에 대한 정보를 추가할 수 있습니다. + +사용자 세션 개체를 변경할 때 변경 후 수집된 모든 RUM 이벤트에는 업데이트된 정보가 포함됩니다. + +**참고**: 로그아웃할 때와 같이 사용자 세션 정보를 삭제하면 로그아웃 전 마지막 보기의 사용자 정보는 유지되지만 세션 데이터는 마지막 보기의 값을 사용하므로 이후 보기나 세션 수준에는 유지되지 않습니다. + +### 사용자 세션 식별 + +`datadogRum.setUser(<USER_CONFIG_OBJECT>)` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.setUser({ + id: '1234', + name: 'John Doe', + email: 'john@doe.com', + plan: 'premium', + ... +}) +``` + +{{% /tab %}} +{{< /tabs >}} + +### 사용자 세션 엑세스 + +`datadogRum.getUser()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.getUser() +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getUser() +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.getUser() +``` + +{{% /tab %}} +{{< /tabs >}} + +### 사용자 세션 속성 추가/재정의 + +`datadogRum.setUserProperty('<USER_KEY>', <USER_VALUE>)` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setUserProperty('name', 'John Doe') +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setUserProperty('name', 'John Doe') +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.setUserProperty('name', 'John Doe') +``` + +{{% /tab %}} +{{< /tabs >}} + +### 사용자 세션 속성 제거 + +`datadogRum.removeUserProperty('<USER_KEY>')` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.removeUserProperty('name') +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { +window.DD_RUM.removeUserProperty('name') +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.removeUserProperty('name') +``` +{{% /tab %}} +{{< /tabs >}} + +### 사용자 세션 속성 지우기 + +`datadogRum.clearUser()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.clearUser() +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearUser() +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.clearUser() +``` +{{% /tab %}} +{{< /tabs >}} + +## 샘플링 + +기본적으로 수집된 세션 수에는 샘플링이 적용되지 않습니다. 수집된 세션 수에 상대적인 샘플링(%)을 적용하려면 RUM을 초기화할 때 `sessionSampleRate` 파라미터를 사용하세요. + +다음 예제는 주어진 RUM 애플리케이션의 모든 세션 중 90%만 수집합니다. + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + applicationId: '<DATADOG_APPLICATION_ID>', + clientToken: '<DATADOG_CLIENT_TOKEN>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + clientToken: '<CLIENT_TOKEN>', + applicationId: '<APPLICATION_ID>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && + window.DD_RUM.init({ + clientToken: '<CLIENT_TOKEN>', + applicationId: '<APPLICATION_ID>', + site: '<DATADOG_SITE>', + sessionSampleRate: 90, + }); +``` +{{% /tab %}} +{{< /tabs >}} + +샘플링된 세션의 경우 해당 세션에 대한 모든 페이지 조회수 및 관련 원격 분석이 수집되지 않습니다. + +## 사용자 추적 동의 + +GDPR, CCPA 및 유사한 규정을 준수하기 위해 RUM Browser SDK를 사용하면 초기화 시 추적 동의 값을 제공할 수 있습니다. 동의 추적에 대한 자세한 내용은 [데이터 보안][18]을 참조하세요. + +`trackingConsent` 초기화 파라미터는 다음 값 중 하나가 될 수 있습니다. + +1. `"granted"`: RUM Browser SDK는 데이터 수집을 시작하여 Datadog으로 보냅니다. +2. `"not-granted"`: RUM Browser SDK는 데이터를 수집하지 않습니다. + +RUM Browser SDK가 초기화된 후 추적 동의 값을 변경하려면 `setTrackingConsent()` API 호출을 사용하세요. RUM Browser SDK는 새 값에 따라 동작을 변경합니다. + +* `"granted"`에서 `"not-granted"`로 변경되면 RUM 세션이 중지되고 데이터가 더 이상 Datadog으로 전송되지 않습니다. +* `"not-granted"`에서 `"granted"`로 변경하면 이전 세션이 활성화되지 않은 경우 새 RUM 세션이 생성되고 데이터 수집이 재개됩니다. + +이 상태는 탭 간에 동기화되지 않으며 탐색 간에 유지되지 않습니다. RUM Browser SDK 초기화 중 또는 `setTrackingConsent()`를 사용하여 사용자 결정을 제공해야 합니다. + +`init()`전에 `setTrackingConsent()`를 사용하면 제공된 값이 초기화 파라미터보다 우선합니다. + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', function() { + datadogRum.setTrackingConsent('granted'); +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' + }); +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM.onReady(function() { + window.DD_RUM.setTrackingConsent('granted'); + }); +}); +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.init({ + ..., + trackingConsent: 'not-granted' +}); + +acceptCookieBannerButton.addEventListener('click', () => { + window.DD_RUM && window.DD_RUM.setTrackingConsent('granted'); +}); +``` +{{% /tab %}} +{{< /tabs >}} + +## 글로벌 컨텍스트 + +### 글로벌 컨텍스트 속성 추가 + +RUM이 초기화된 후 `setGlobalContextProperty(key: string, value: any)` API를 사용하여 애플리케이션에서 수집된 모든 RUM 이벤트에 추가 컨텍스트를 추가합니다: + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.setGlobalContextProperty('<CONTEXT_KEY>', <CONTEXT_VALUE>); + +// 코드 예시 +datadogRum.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('<CONTEXT_KEY>', '<CONTEXT_VALUE>'); +}) + +// 코드 예시 +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 + }); +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} +```javascript +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('<CONTEXT_KEY>', '<CONTEXT_VALUE>'); + +// 코드 예시 +window.DD_RUM && window.DD_RUM.setGlobalContextProperty('activity', { + hasPaid: true, + amount: 23.42 +}); +``` +{{% /tab %}} +{{< /tabs >}} + +### 글로벌 컨텍스트 속성 제거 + +이전에 정의된 글로벌 컨텍스트 속성을 제거할 수 있습니다. + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.removeGlobalContextProperty('<CONTEXT_KEY>'); + +// 코드 예시 +datadogRum.removeGlobalContextProperty('codeVersion'); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('<CONTEXT_KEY>'); +}) + +// 코드 예시 +window.DD_RUM.onReady(function() { + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('<CONTEXT_KEY>'); + +// 코드 예시 +window.DD_RUM && + window.DD_RUM.removeGlobalContextProperty('codeVersion'); +``` + +{{% /tab %}} +{{< /tabs >}} + + +### 글로벌 컨텍스트 대체 + +모든 RUM 이벤트에 대한 기본 컨텍스트를 `setGlobalContext(context: Context)` API로 교체합니다. + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; +datadogRum.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); + +// 코드 예시 +datadogRum.setGlobalContext({ + codeVersion: 34, +}); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); +}) + +// 코드 예시 +window.DD_RUM.onReady(function() { + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }) +}) +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +window.DD_RUM && + window.DD_RUM.setGlobalContext({ '<CONTEXT_KEY>': '<CONTEXT_VALUE>' }); + +// 코드 예시 +window.DD_RUM && + window.DD_RUM.setGlobalContext({ + codeVersion: 34, + }); +``` + +{{% /tab %}} +{{< /tabs >}} + +### 글로벌 컨텍스트 지우기 + +`clearGlobalContext`를 사용하여 글로벌 컨텍스트를 지울 수 있습니다. + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +datadogRum.clearGlobalContext(); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearGlobalContext(); +}); +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +window.DD_RUM && window.DD_RUM.clearGlobalContext(); +``` + +{{% /tab %}} +{{< /tabs >}} + +### 글로벌 컨텍스트 읽기 + +RUM이 초기화되면 `getGlobalContext()` API로 글로벌 컨텍스트를 읽습니다. + +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogRum } from '@datadog/browser-rum'; + +const context = datadogRum.getGlobalContext(); +``` + +{{% /tab %}} +{{% tab "CDN async" %}} +```javascript +window.DD_RUM.onReady(function() { + const context = window.DD_RUM.getGlobalContext(); +}); +``` +{{% /tab %}} +{{% tab "CDN sync" %}} + +```javascript +const context = window.DD_RUM && window.DD_RUM.getGlobalContext(); +``` + +{{% /tab %}} +{{< /tabs >}} + +## 컨텍스트 수명 주기 + +기본적으로 글로벌 컨텍스트 및 사용자 컨텍스트는 현재 페이지 메모리에 저장되는데 이는 다음을 의미합니다. + +- 페이지를 완전히 새로 고침한 후에는 유지되지 않습니다. +- 동일한 세션의 다른 탭 또는 창에서 공유되지 않습니다. + +세션의 모든 이벤트에 추가하려면 모든 페이지에 첨부해야 합니다. + +브라우저 SDK v4.49.0에 도입된 `storeContextsAcrossPages` 구성 옵션을 통해 해당 컨텍스트를 [`localStorage`][19]에 저장할 수 있어 다음 동작이 가능해졌습니다. + +- 컨텍스트는 다시 전체 로드한 후에도 보존됩니다. +- 동일한 출처에서 열린 탭 간에 컨텍스트가 동기화됩니다. + +하지만 이 기능에는 몇 가지 **제한 사항**이 있습니다: + +- `localStorage`에 저장된 데이터는 사용자 세션보다 오래 지속되므로 이러한 상황에서 개인 식별 정보(PII)를 설정하는 것은 권장되지 않습니다. +- `localStorage` 데이터는 동일한 출처 (login.site.com ≠ app.site.com)에서만 공유되므로 이 기능은 `trackSessionAcrossSubdomains` 옵션과 호환되지 않습니다. +- `localStorage`는 출처별로 5 MiB라는 제한이 있으므로 로컬 스토리지에 저장된 애플리케이션별 데이터, Datadog 컨텍스트 및 기타 타사 데이터는 이 한도 내에 있어야 문제를 방지할 수 있습니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/real_user_monitoring/browser/data_collected/ +[2]: /ko/real_user_monitoring/browser/monitoring_page_performance/ +[3]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2170 +[4]: /ko/real_user_monitoring/browser/setup +[5]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2130 +[6]: https://developer.mozilla.org/en-US/docs/Web/API/Location +[7]: https://developer.mozilla.org/en-US/docs/Web/API/Event +[8]: https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest +[9]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming +[10]: https://developer.mozilla.org/en-US/docs/Web/API/Request +[11]: https://developer.mozilla.org/en-US/docs/Web/API/Response +[12]: https://developer.mozilla.org/en-US/docs/Web//Reference/Global_Objects/Error +[13]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceLongTaskTiming +[14]: /ko/real_user_monitoring/guide/enrich-and-control-rum-data +[15]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum-core/src/rumEvent.types.ts +[16]: /ko/logs/log_configuration/attributes_naming_convention/#user-related-attributes +[17]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v4130 +[18]: /ko/data_security/real_user_monitoring/#browser-rum-use-of-cookies +[19]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage \ No newline at end of file diff --git a/content/ko/real_user_monitoring/browser/frustration_signals.md b/content/ko/real_user_monitoring/browser/frustration_signals.md new file mode 100644 index 0000000000000..9efef7e9aa05e --- /dev/null +++ b/content/ko/real_user_monitoring/browser/frustration_signals.md @@ -0,0 +1,167 @@ +--- +aliases: +- /ko/real_user_monitoring/frustration_signals +further_reading: +- link: https://www.datadoghq.com/blog/analyze-user-experience-frustration-signals-with-rum/ + tag: 블로그 + text: Datadog 좌절 신호를 통해 사용자의 고충을 파악 +- link: /real_user_monitoring/platform/dashboards/usage#frustration-signals + tag: 설명서 + text: 좌절 신호 대시보드 +- link: /real_user_monitoring/explorer + tag: 설명서 + text: RUM 탐색기에 대해 자세히 알아보기 +- link: /real_user_monitoring/session_replay + tag: 설명서 + text: 세션 재생에 대해 알아보기 +title: 좌절 신호 +--- + +## 개요 + +좌절 신호는 사용자가 불만을 표시하는 순간을 표시하여 애플리케이션에서 사용자 마찰이 가장 높은 지점을 식별하는 데 도움이 됩니다. + +RUM은 세 가지 유형의 좌절 신호를 수집합니다: + +Rage Clicks +: 사용자는 1초 슬라이딩 창에서 요소를 세 번 이상 클릭합니다. + +Dead Clicks +: 사용자가 페이지에 아무런 액션도 생성하지 않는 정적 요소를 클릭합니다. + +Error Clicks +: 사용자가 JavaScript 오류가 발생하기 직전에 요소를 클릭합니다. + +좌절 신호를 활성화함으로써 Datadog은 기본적으로 세 가지 신호 유형을 모두 수집합니다. + +## 필수 요건 + +먼저 Browser RUM SDK 버전 >= 4.14.0이 필요합니다. + +좌절 신호 수집을 시작하려면 SDK 구성에 다음을 추가합니다: + +<details open> + <summary>Latest version</summary> + +```javascript +window.DD_RUM.init({ + trackUserInteractions: true, +}) +``` + +</details> +<details> + <summary>Before <code>v5.0.0</code></summary> + +```javascript +window.DD_RUM.init({ + trackUserInteractions: true, + trackFrustrations: true +}) +``` + +좌절 신호에는 조치가 필요합니다. `trackFrustrations`을 활성화하면 `trackUserInteractions`가 자동으로 활성화됩니다. +</details> + +## 사용량 + +좌절 신호는 [**RUM Applications** 페이지][1]에서 사용자 좌절 원인을 나타내는 상위 수준의 데이터 포인트로 나타납니다. [RUM 탐색기][2]에서 좌절 횟수 목록을 표시하려면 **Options** 버튼을 클릭하고 `@session.frustration.count`에 대한 열을 추가합니다. + +### 애플리케이션 목록 + +브라우저 세션 목록 위에 마우스를 올려놓고 세션을 클릭하여 사용자가 좌절을 느끼는 클릭 동작을 관찰하거나 **Frustrated Sessions**를 클릭하여 좌절 신호가 있는 세션에 액세스합니다. + +### 좌절 신호 대시보드 탐색 + +**Frustration Signals** 대시보드는 애플리케이션 전반에서 사용자가 느끼는 좌절 수준에 대한 개요를 제공하며, 가장 불만이 많은 사용자 및 좌절 신호가 가장 많이 발생한 페이지와 같은 주제를 표시합니다. + +이 대시보드를 복제하여 필요에 맞게 사용자 지정할 수 있습니다. 자세한 내용은 [좌절 신호 대시보드][3]를 참조하세요. + +### 좌절 신호 검색 + +[RUM 탐색기][4]에서 RUM이 수집한 모든 데이터를 검색하여 좌절 신호의 추세를 파악하고, 더 큰 컨텍스트로 패턴을 분석하거나, [대시보드][5] 및 [모니터][6]로 내보낼 수 있습니다. + +검색 쿼리에 패싯을 입력하여 검색을 시작합니다. 사용 가능한 검색 필드는 다음과 같습니다: + +Frustration Type +: 좌절 신호가 있는 액션을 찾습니다. 예를 들어, 분노 클릭이 발생한 액션을 보려면 검색 쿼리에 `action.frustration.type:rage_click`를 추가합니다. + +Frustration Count +: 좌절 신호가 발생한 세션 및 보기를 찾습니다. 예를 들어, 좌절 신호가 적어도 하나 이상 있는 사용자 세션 또는 보기를 찾으려면 `session.frustration.count:>1` 또는 `view.frustration.count:>1`를 검색 쿼리에 추가합니다. + +#### 세션 + +**Frustration Count** 열에 값이 있는 세션을 클릭하여 감지된 사용자 좌절을 조사할 수 있습니다. 신호의 유형(`rage click`, `dead click` 또는 `error click`)과 이벤트 타임라인을 통해 세션 중에 어떤 일이 발생했는지 확인할 수 있습니다. + +#### 보기 + +보기를 클릭하면 `frustration detected` 태그가 있는 특정 페이지에서 사용자가 불만을 느꼈는지 확인할 수 있습니다. + +{{< img src="real_user_monitoring/frustration_signals/frustration_signals_in_performance_tab.png" alt="성능 워터폴 그래프의 이벤트 드롭다운 메뉴에서 좌절 신호 액션을 확인하세요." style="width:90%;" >}} + +성능 워터폴은 좌절 신호를 포함하는 액션을 표시합니다. + +{{< img src="real_user_monitoring/frustration_signals/actions_frustration_signal.png" alt="액션으로 감지된 좌절 신호" style="width:90%;" >}} + +#### 액션 + +**Actions** 탭은 선택한 액션에 좌절 신호가 포함되어 있는 경우 `frustration detected` 태그를 표시합니다. + +액션에서 여러 번의 좌절 신호가 발생할 경우 액션 패널의 **What Happened** 아래에 표시됩니다. + +{{< img src="real_user_monitoring/frustration_signals/actions_panel_multiple_frustration_signals.png" alt="What Happened 아래의 액션에서 여러 가지 좌절 신호 유형이 감지되었습니다." style="width:90%;" >}} + +#### 오류 + +**Errors** 탭에서 오류를 클릭하면 오류 세부 정보가 있는 사이드 패널이 열립니다. 좌절 신호가 발생했는지 확인할 수 있습니다. + +{{< img src="real_user_monitoring/frustration_signals/errors_tab.png" alt="액션 사이드 패널의 오류 탭" style="width:90%;" >}} + +## 세션 재생에서 좌절 신호 보기 + +[세션 재생][7]에서는 실제 사용자 활동의 비디오와 같은 복제본을 관찰할 수 있습니다. 세션 재생은 사용자가 좌절의 징후를 보일 때 취하는 행동에 대한 비디오 증거를 제공합니다. + +세션 재생의 사용자 이동 경로는 시간 순서대로 발생하는 이벤트를 자세히 설명합니다. 이벤트 위로 마우스를 가져가면 재생에서 해당 시점으로 이동합니다(예: 데드 클릭이 발생한 시점). + +{{< img src="real_user_monitoring/frustration_signals/session_replay_frustration_signals.png" alt="브라우저 레코딩에 좌절 신호가 나타납니다." style="width:90%;" >}} + + 자세한 내용은 [세션 재생 설명서][8]를 참조하세요. + +## 좌절 신호에 대한 알림 만들기 + +모니터를 만들고 좌절 신호에 대한 알림을 설정하여 애플리케이션의 중요한 페이지에서 좌절 신호가 발생할 경우 사용자 또는 팀에 알릴 수 있습니다. + +예를 들어, 특정 페이지에서 좌절 신호가 발생한 경우 알림을 설정하려면: + +{{< img src="real_user_monitoring/frustration_signals/rum_monitor_frustration_count.png" alt="좌절 신호 횟수를 알려주는 RUM 모니터 만들기" style="width:90%;" >}} + +자세한 내용은 [실제 사용자 모니터링 모니터 설명서][9]를 참조하세요. + +## 트러블슈팅 + +### 사용자가 키보드에서 키(예: Delete)를 누를 때 분노 클릭이 생성되지 않습니다. + +좌절 신호는 키보드 입력이 아닌 마우스 클릭으로 생성됩니다. + +### 사이드 패널에는 세션에 이벤트 타임라인과 다른 수의 좌절 신호가 있음이 표시되지 않습니다. + +세션이 라이브 상태인 경우 정보를 가져오는 중이므로 배너에 타임라인에 표시된 숫자와 다른 숫자가 반영될 수 있습니다. + +<div class="alert alert-warning"> +피드백을 제공하거나 기능 요청을 제출하려면 <a href="/help/">Datadog 지원팀</a>에 문의하세요. +</div> + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/rum/list +[2]: /ko/real_user_monitoring/explorer/ +[3]: /ko/real_user_monitoring/platform/dashboards/usage#frustration-signals +[4]: https://app.datadoghq.com/rum/explorer +[5]: /ko/dashboards/ +[6]: /ko/monitors/ +[7]: https://app.datadoghq.com/rum/replay/sessions/ +[8]: /ko/real_user_monitoring/session_replay/browser/ +[9]: /ko/monitors/types/real_user_monitoring/ +[10]: mailto:success@datadoghq.com \ No newline at end of file diff --git a/content/ko/real_user_monitoring/guide/shadow-dom.md b/content/ko/real_user_monitoring/guide/shadow-dom.md index 62d13c128200e..704708bc07ee7 100644 --- a/content/ko/real_user_monitoring/guide/shadow-dom.md +++ b/content/ko/real_user_monitoring/guide/shadow-dom.md @@ -1,7 +1,7 @@ --- description: Session Replay와의 Shadow DOM 호환성에 대한 안내입니다. further_reading: -- link: /real_user_monitoring/session_replay/ +- link: /real_user_monitoring/session_replay/browser/ tag: 설명서 text: 세션 재생에 대해 알아보기 title: Shadow DOM 구성요소로 세션 재생 강화 diff --git a/content/ko/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/_index.md b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/_index.md new file mode 100644 index 0000000000000..10e6487aa285f --- /dev/null +++ b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/_index.md @@ -0,0 +1,27 @@ +--- +further_reading: +- link: https://github.com/DataDog/dd-sdk-android + tag: 소스 코드 + text: dd-sdk-android를 위한 소스 코드 +- link: https://github.com/DataDog/dd-sdk-ios + tag: 소스 코드 + text: dd-sdk-ios 소스 코드 +- link: https://github.com/DataDog/dd-sdk-flutter + tag: 소스 코드 + text: dd-sdk-flutter의 소스 코드 +- link: https://github.com/DataDog/dd-sdk-reactnative + tag: 소스 코드 + text: dd-sdk-reactnative를 위한 소스 코드 +- link: https://github.com/DataDog/dd-sdk-roku + tag: 소스 코드 + text: dd-sdk-roku용 소스 코드 +- link: /real_user_monitoring + tag: 설명서 + text: Datadog RUM 탐색 +title: 고급 구성 +type: multi-code-lang +--- + +RUM 모니터링용 고급 설정에 대한 자세한 내용은 플랫폼을 선택하세요. + +{{< partial name="rum/rum-getting-started-mobile-advanced.html" >}} \ No newline at end of file diff --git a/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md index 1569f3a26c05f..b5dcc7fd7bc70 100644 --- a/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md +++ b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md @@ -350,6 +350,15 @@ Container( ); ``` +## 디바이스가 오프라인일 때 데이터 전송 + +RUM은 사용자 디바이스가 오프라인 상태일 때 데이터의 가용성을 보장합니다. 네트워크 연결이 원활하지 않은 지역이 디바이스 배터리가 너무 부족한 경우 모든 RUM 이벤트는 먼저 로컬 디바이스에 일괄적으로 저장됩니다. 네트워크를 사용할 수 있고 배터리가 충분히 충전되어 Flutter RUM SDK가 최종 사용자 경험에 영향을 미치지 않도록 보장하는 즉시 전송됩니다. 애플리케이션이 포그라운드에서 실행 중인 상태에서 네트워크를 사용할 수 없거나 데이터 업로드에 실패하면 배치가 성공적으로 전송될 때까지 보관됩니다. + +즉, 사용자가 오프라인 상태에서 애플리케이션을 열어도 데이터가 손실되지 않습니다. + +**참고**: 디스크의 데이터가 너무 오래되면 Flutter RUM SDK가 디스크 공간을 너무 많이 사용하지 않도록 디스크의 데이터가 자동으로 삭제됩니다. + + ## 참고 자료 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ko/serverless/guide/opentelemetry.md b/content/ko/serverless/guide/opentelemetry.md new file mode 100644 index 0000000000000..0624afc9cd119 --- /dev/null +++ b/content/ko/serverless/guide/opentelemetry.md @@ -0,0 +1,24 @@ +--- +further_reading: +- link: /opentelemetry/ + tag: 설명서 + text: Datadog의 OpenTelemetry +title: 서버리스 및 OpenTelemetry +--- + +[OpenTelemetry][1]는 오픈 소스 통합 가시성 프레임워크로, IT 팀에 원격 분석 데이터 수집 및 라우팅을 위한 표준화된 프로토콜과 도구를 제공합니다. + +코드가 [OpenTelemetry API][2]로 커스텀 계측되거나 벤더 독립적 커스텀 계측 코드를를 작성하려는 경우, Datadog-스타일 스팬(span) 및 트레이스를 생성한 다음, 이 스팬(span) 및 트레이스를 Datadog 추적 라이브러리와 함께 프로세싱하여 Datadog에 데이터를 전송할 수 있습니다. + +### AWS Lambda + +[AWS Lambda 및 OpenTelemetry][4]를 참조하세요. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://opentelemetry.io/ +[2]: https://opentelemetry.io/docs/reference/specification/trace/api +[3]: /ko/tracing/trace_collection/otel_instrumentation/ +[4]: /ko/serverless/aws_lambda/opentelemetry \ No newline at end of file diff --git a/content/ko/synthetics/api_tests/ssl_tests.md b/content/ko/synthetics/api_tests/ssl_tests.md new file mode 100644 index 0000000000000..5834457d7c97b --- /dev/null +++ b/content/ko/synthetics/api_tests/ssl_tests.md @@ -0,0 +1,165 @@ +--- +algolia: + category: 설명서 + rank: 70 + subcategory: 신서틱(Synthetic) API 테스트 + tags: + - ssl + - ssl test + - ssl tests +aliases: +- /ko/synthetics/ssl_test +- /ko/synthetics/ssl_check +description: 전 세계 어디에서나 SSL 인증서를 모니터링하세요 +further_reading: +- link: https://www.datadoghq.com/blog/introducing-synthetic-monitoring/ + tag: 블로그 + text: Datadog 신서틱(Synthetic) 모니터링 소개 +- link: /getting_started/synthetics/api_test + tag: 설명서 + text: API 테스트 시작하기 +- link: /synthetics/private_locations + tag: 설명서 + text: 내부 호스트에서 SSL 테스트 실행 +- link: /synthetics/guide/synthetic-test-monitors + tag: 설명서 + text: Synthetic 테스트 모니터에 대해 알아보기 +title: SSL 테스트 +--- + +## 개요 + +SSL 테스트를 통해 SSL/TLS 인증서의 유효성 및 만료 여부를 사전에 모니터링하여 주요 서비스와 사용자 간의 안전한 연결을 보장할 수 있습니다. 인증서가 곧 만료되거나 손상될 경우, Datadog은 오류에 대한 세부 정보가 포함된 알림을 전송하여 문제의 근본 원인을 신속하게 파악하고 수정할 수 있도록 합니다. + +SSL 테스트는 네트워크 외부 또는 내부에서 테스트를 실행하려는 기본 설정에 따라 [관리형](#select-locations) 및 [프라이빗 위치][1]에서 모두 실행할 수 있습니다. SSL 테스트는 일정에 따라, 주문형으로 또는 [CI/CD 파이프라인][2] 내에서 직접 실행할 수 있습니다. + +## 설정 + +`SSL` 테스트 생성을 선택한 후 테스트 요청을 정의합니다. + +### 요청 정의하기 + +1. 테스트를 실행할 **Host** 및 **Port**를 지정합니다. 기본 SSL 포트는 `443`입니다. +2. 테스트에 **고급 옵션**(선택 사항)을 추가합니다. + * **Accept self-signed certificates**: 자체 서명된 인증서와 관련된 모든 서버 오류를 우회합니다. + * **Fail on revoked certificate in stapled OCSP**: 인증서가 OCSP 스테이플링에 의해 해지된 것으로 레이블이 지정되면 테스트에 실패합니다. + * **타임아웃**: 테스트 시간 초과로 간주하기까지의 시간을 초단위로 지정합니다(옵션). + * **Server Name**: TLS 핸드셰이크를 시작할 서버를 지정하여 서버가 동일한 IP 주소 및 TCP 포트 번호에 대해 가능한 여러 인증서 중 하나를 제공할 수 있도록 합니다. 기본적으로 파라미터는 **Host** 값으로 채워집니다. + * **클라이언트 인증서**: 클라이언트 인증서(`.crt`) 및 연결된 프라이빗 키(`.key`)를 `PEM` 형식으로 업로드하여 mTLS를 통해 인증합니다. + + `openssl` 라이브러리를 사용하여 인증서를 변환할 수 있습니다. 예를 들어, `PKCS12` 인증서를 `PEM` 형식의 비공개 키 및 인증서로 변환합니다. + + ``` + openssl pkcs12 -in <CERT>.p12 -out <CERT_KEY>.key -nodes -nocerts + openssl pkcs12 -in <CERT>.p12 -out <CERT>.cert -nokeys + ``` + +3. SSL 테스트의 **이름**을 지정합니다. + +4. SSL 테스트에 `env` **태그** 및 기타 태그를 추가합니다. 그런 다음 이러한 태그를 사용하여 [Synthetic Monitoring & Continuous Testing 페이지][3]에서 신서틱(Synthetic) 테스트를 필터링할 수 있습니다. + + {{< img src="synthetics/api_tests/ssl_test_config.png" alt="SSL 요청 정의" style="width:90%;" >}} + +**URL 테스트**를 클릭하여 요청 설정을 테스트합니다. 화면 오른쪽에 응답 미리보기가 표시됩니다. + +### 어서션(표명) 정의하기 + +어설션은 예상되는 테스트 결과가 무엇인지 정의합니다. **Test URL**을 클릭하면 인증서 유효성, 만료 데이터, TLS 버전, `response time`에 대한 기본 어설션이 획득한 응답을 기반으로 추가됩니다. 테스트에서 모니터링할 어설션을 하나 이상 정의해야 합니다. + +| 유형 | 연산자 | 가치 유형 | +|-----------------------|----------------------------------------------------------------------------------------|----------------------------| +| 인증 | `expires in more than`, `expires in less than` | _정수(일수)_ | +| 속성 | `contains`, `does not contain`, `is`, `is not`, <br>`matches`, `does not match` | _String_ <br> _[Regex][4]_ | +| 응다 | `is less than` | _Integer (ms)_ | +| 최대 TLS 버전 | `is less than`, `is less than or equal`, `is`, `is more than`, `is more than or equal` | _소수_ | +| 최소 TLS 버전 | `is more than`, `is more than or equal` | _소수_ | + +**신규 어서션**을 클릭하거나 응답 미리보기를 클릭하여 API 테스트당 최대 20개의 어서션을 생성할 수 있습니다. + +{{< img src="synthetics/api_tests/assertions_ssl.png" alt="SSL 테스트의 성공 또는 실패에 대한 어설션 정의" style="width:90%;" >}} + +어설션에서 `OR` 논리를 수행하려면 `matches regex` 또는 `does not match regex` 비교기를 사용하여 `(0|100)`와 같은 동일한 어설션 유형에 대해 여러 예상 값이 있는 정규식을 정의합니다. 속성 어설션 값이 0 또는 100이면 테스트 결과가 성공한 것입니다. + +테스트에 응답 본문에 대한 어션이 포함되어 있지 않으면 본문 페이로드가 삭제되고 Synthetics Worker가 설정한 제한 시간 내에서 요청에 대한 관련 응답 시간을 반환합니다. + +테스트에 응답 본문에 대한 어서션이 포함되어 있고 제한 시간 제한에 도달하면, `Assertions on the body/response cannot be run beyond this limit` 오류가 나타납니다. + +### 위치 선택 + +SSL 테스트를 실행할 **Locations**를 선택합니다. SSL 테스트는 네트워크 외부 또는 내부의 인증서 모니터링에 대한 기본 설정에 따라 관리형 위치와 [프라이빗 위치][1] 모두에서 실행할 수 있습니다. + +{{% managed-locations %}} + +### 테스트 빈도 지정 + +SSL 테스트는 다음과 같이 실행할 수 있습니다. + +* **일정에 따라** 실행합니다. 이를 통해 SSL/TLS 인증서가 항상 유효한지 확인하고 주요 서비스 사용자에게 보안 연결이 보장되도록 합니다. Datadog이 SSL 테스트를 실행할 빈도를 선택하세요. +* [** CI/CD 파이프라인 내**][2]. +* **온디맨드**로 팀에 가장 적합한 시간에 테스트를 실행할 수 있습니다. + +{{% synthetics-alerting-monitoring %}} + +{{% synthetics-variables %}} + +### 변수 사용 + +URL, 고급 옵션 및 SSL 테스트의 어설션에서 [**Settings** 페이지에 정의된 전역 변수][9]를 사용할 수 있습니다. + +변수 목록을 표시하려면 원하는 필드에 `{{`를 입력하세요. + +## 테스트 실패 + +하나 이상의 어서션을 충족하지 않거나 요청이 초기에 실패한 경우 테스트는 `FAILED`로 간주됩니다. 경우에 따라서는 엔드포인트 어서션 테스트 없이 해당 테스트가 실패할 수 있습니다. + +다음과 같은 이유가 있습니다. + +`CONNRESET` +: 원격 서버에 의해 연결이 갑자기 종료되었습니다. 가능한 원인으로는 웹 서버가 응답 도중 오류 또는 충돌이 발생하였거나 웹 서버의 연결이 끊어졌기 때문일 수 있습니다. + +`DNS` +: 테스트 URL에 대한 DNS 엔트리를 찾을 수 없습니다. 가능한 원인으로는 테스트 URL이 잘못 설정되었거나 DNS 엔티티 설정이 잘못되었기 때문일 수 있습니다. + +`INVALID_REQUEST` +: 테스트 구성이 유효하지 않습니다(예: URL에 오타가 있습니다). + +`SSL` +: SSL 연결을 수행할 수 없습니다. [자세한 내용은 전용 오류 페이지를 참조하세요][10]. + +`TIMEOUT` +: 요청을 적절한 시간 내에 완료할 수 없습니다. 두 가지 유형의 `TIMEOUT`이 발생할 수 있습니다: + - `TIMEOUT: The request couldn't be completed in a reasonable time.`는 요청 기간이 테스트에 정의된 시간 제한에 도달했음을 나타냅니다(기본값은 60초로 설정됨). + 각 요청에 대해 완료된 요청 단계만 네트워크 폭포에 표시됩니다. 예를 들어, `Total response time`만 표시되는 경우 DNS 확인 중에 시간 초과가 발생했습니다. + - `TIMEOUT: Overall test execution couldn't be completed in a reasonable time.`은 요청 및 어서션 실행 시간이 최대 실행 시간(60.5초)에 도달했음을 나타냅니다. + +## 권한 허용 + +기본적으로 [Datadog Admin 및 Datadog Standard 역할][11]을 가진 사용자만 신서틱(Synthetic) SSL 테스트를 생성, 편집 및 삭제할 수 있습니다. 신서틱(Synthetic) SSL 테스트에 대한 생성, 편집 및 삭제 액세스 권한을 얻으려면 사용자를 두 가지 [기본 역할][11] 중 하나로 업그레이드하세요. + +[사용자 정의 역할 기능][12]을 사용하는 경우 `synthetics_read` 및 `synthetics_write` 권한이 포함된 사용자 정의 역할에 사용자를 추가하세요. + +### 액세스 제한 + +계정에서 [사용자 정의 역할][10]을 사용하는 고객은 액세스 제한을 사용할 수 있습니다. + +조직 내 역할에 따라 SSL 테스트의 액세스를 제한할 수 있습니다. SSL 테스트를 생성할 때 사용자 외에 어떤 역할이 테스트를 읽고 쓸 수 있는지 선택합니다. + +{{< img src="synthetics/settings/restrict_access_1.png" alt="테스트에 대한 권한 설정" style="width:70%;" >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/synthetics/private_locations +[2]: /ko/synthetics/cicd_integrations +[3]: /ko/synthetics/search/#search +[4]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Guide/Regular_Expressions +[5]: /ko/monitors/notify/#configure-notifications-and-automations +[6]: https://www.markdownguide.org/basic-syntax/ +[7]: /ko/monitors/notify/?tab=is_recoveryis_alert_recovery#conditional-variables +[8]: /ko/synthetics/guide/synthetic-test-monitors +[9]: /ko/synthetics/settings/#global-variables +[10]: /ko/synthetics/api_tests/errors/#ssl-errors +[11]: /ko/account_management/rbac/ +[12]: /ko/account_management/rbac#custom-roles +[13]: /ko/account_management/rbac/#create-a-custom-role \ No newline at end of file diff --git a/content/ko/synthetics/api_tests/websocket_tests.md b/content/ko/synthetics/api_tests/websocket_tests.md new file mode 100644 index 0000000000000..110a15775cfba --- /dev/null +++ b/content/ko/synthetics/api_tests/websocket_tests.md @@ -0,0 +1,170 @@ +--- +algolia: + category: 설명서 + rank: 70 + subcategory: 신서틱(Synthetic) API 테스트 + tags: + - websocket + - websocket test + - websocket tests +aliases: null +description: 공개 및 내부 API 엔드포인트 모니터링을 위한 WebSocket 요청 시뮬레이션 +further_reading: +- link: https://www.datadoghq.com/blog/introducing-synthetic-monitoring/ + tag: 블로그 + text: Datadog 신서틱(Synthetic) 모니터링 소개 +- link: https://www.datadoghq.com/blog/udp-websocket-api-tests/ + tag: 블로그 + text: 지연 시간이 중요한 애플리케이션 모니터링을 위해 UDP 및 WebSocket 테스트 실행 +- link: https://learn.datadoghq.com/courses/intro-to-synthetic-tests + tag: 학습 센터 + text: 신서틱(Synthetic) 테스트 소개 +- link: /synthetics/guide/synthetic-test-monitors + tag: 설명서 + text: Synthetic 테스트 모니터에 대해 알아보기 +title: WebSocket 테스트 +--- +## 개요 + +WebSocket 테스트를 사용하면 엔드포인트에서 WebSocket 연결을 사전에 열어 응답 및 정의된 조건(예: 전체 응답 시간 또는 예상 헤더)을 확인할 수 있습니다. + +WebSocket 테스트는 네트워크 외부 또는 내부에서 테스트를 실행하려는 사용자 선호도에 따라 [관리형](#select-locations) 및 [프라이빗 위치][1] 모두에서 실행할 수 있습니다. WebSocket 테스트는 일정에 따라, 주문형으로 또는 [CI/CD 파이프라인][2] 내에서 직접 실행할 수 있습니다. + +## 설정 + +`WebSocket` 테스트 생성을 선택한 후 테스트 요청을 정의합니다. + +### 요청 정의하기 + +1. 테스트를 실행하려는 **URL**을 지정합니다. +2. 테스트에서 보내려는 문자열을 입력합니다. +3. 테스트에 **고급 옵션**(선택 사항)을 추가합니다. + + {{< tabs >}} + + {{% tab "Request Options" %}} + * **타임아웃**: 테스트 시간 초과로 간주하기까지의 시간을 초단위로 지정합니다(옵션). + * **Request headers**: WebSocket 연결을 시작하는 HTTP 요청에 추가할 헤더를 정의합니다. 기본 헤더(예: `user-agent` 헤더)를 재정의할 수도 있습니다. + * **Cookies**: WebSocket 연결을 시작하는 HTTP 요청에 추가할 쿠키를 정의합니다. `<COOKIE_NAME1>=<COOKIE_VALUE1>; <COOKIE_NAME2>=<COOKIE_VALUE2>` 형식을 사용하여 여러 쿠키를 설정하세요. + + {{< /tabs >}} + + {{% tab "Authentication" %}} + + * **HTTP Basic Auth**: HTTP 기본 인증 자격 증명을 추가합니다. + + {{< /tabs >}} + + {{< /tabs >}} + +<br/> + +4. WebSocket 테스트의 **이름**을 지정합니다. +5. WebSocket 테스트에 `env` **태그** 및 기타 태그를 추가합니다. 그런 다음 이러한 태그를 사용하여 [Synthetic Monitoring & Continuous Testing 페이지][3]에서 신서틱(Synthetic) 테스트를 필터링할 수 있습니다. + +{{< img src="synthetics/api_tests/websocket_test_config.png" alt="WebSocket 요청 정의" style="width:90%;" >}} + +**URL 테스트**를 클릭하여 요청 설정을 테스트합니다. 화면 오른쪽에 응답 미리보기가 표시됩니다. + +### 어서션(표명) 정의하기 + +어설션은 예상되는 테스트 결과를 정의합니다. **Test URL**을 클릭하면 `response time`에 대한 기본 어설션이 추가됩니다. 테스트에서 모니터링할 어설션을 하나 이상 정의해야 합니다. + +| 유형 | 연산자 | 값 유형 | +|-----------------|----------------------------------------------------------------------------------|-----------------------------------| +| 응다 | `is less than` | _Integer (ms)_ | +| 문자열 응답 | `contains`, `does not contain`, `is`, `is not`, <br>`matches`, `does not match` | _String_ <br> _[Regex][4]_ | +| 헤더 | `contains`, `does not contain`, `is`, `is not`, <br>`matches`, `does not match` | _String_ <br> _[Regex][4]_ | + +응답 미리 보기를 직접 선택하거나 **New Assertion**을 클릭하여 어설션을 만듭니다. WebSocket 테스트당 최대 20개의 어설션을 생성할 수 있습니다. + +{{< img src="synthetics/api_tests/websocket_assertions.png" alt="WebSocket 테스트의 성공 또는 실패에 대한 어설션 정의" style="width:90%;" >}} + +어설션에서 `OR` 논리를 수행하려면 `matches regex` 또는 `does not match regex` 비교기를 사용하여 `(0|100)`와 같은 동일한 어설션 유형에 대해 여러 예상 값이 있는 정규식을 정의합니다. 문자열 응답 또는 헤더 어설션 값이 0 또는 100이면 테스트 결과가 성공한 것입니다. + +테스트에 응답 본문에 대한 어션이 포함되어 있지 않으면 본문 페이로드가 삭제되고 Synthetics Worker가 설정한 제한 시간 내에서 요청에 대한 관련 응답 시간을 반환합니다. + +테스트에 응답 본문에 대한 어서션이 포함되어 있고 제한 시간 제한에 도달하면, `Assertions on the body/response cannot be run beyond this limit` 오류가 나타납니다. + +### 위치 선택 + +WebSocket 테스트를 실행할 **Locations**를 선택합니다. WebSocket 테스트는 네트워크 외부 또는 내부에서 테스트를 실행하려는 사용자의 선호도에 따라 관리형 위치와 [프라이빗 위치][1] 모두에서 실행될 수 있습니다. + +{{% managed-locations %}} + +### 테스트 빈도 지정 + +WebSocket 테스트는 다음과 같이 실행할 수 있습니다. + +* **일정에 따라** 사용자가 가장 중요한 엔드포인트에 항상 액세스할 수 있도록 합니다. Datadog이 WebSocket 테스트를 실행할 빈도를 선택합니다. +* [**CI/CD 파이프라인 내에서**][2] 결함이 있는 코드가 고객 경험에 영향을 미칠 지에 대한 염려 없이 전송을 시작할 수 있습니다. +* **온디맨드**로 팀에 가장 적합한 시간에 테스트를 실행할 수 있습니다. + +{{% synthetics-alerting-monitoring %}} + +{{% synthetics-variables %}} + +### 변수 사용 + +URL, 고급 옵션, WebSocket 테스트의 어설션에서 [**Settings** 페이지에 정의된 전역 변수][4]를 사용할 수 있습니다. + +변수 목록을 표시하려면 원하는 필드에 `{{`를 입력하세요. + +## 테스트 실패 + +하나 이상의 어서션을 충족하지 않거나 요청이 초기에 실패한 경우 테스트는 `FAILED`로 간주됩니다. 경우에 따라서는 엔드포인트 어서션 테스트 없이 해당 테스트가 실패할 수 있습니다. + +다음과 같은 이유가 있습니다. + +`CONNRESET` +: 원격 서버에 의해 연결이 갑자기 종료되었습니다. 가능한 원인으로는 웹 서버가 응답 도중 오류 또는 충돌이 발생하였거나 웹 서버의 연결이 끊어졌기 때문일 수 있습니다. + +`DNS` +: 테스트 URL에 대한 DNS 엔트리를 찾을 수 없습니다. 가능한 원인으로는 테스트 URL이 잘못 설정되었거나 DNS 엔티티 설정이 잘못되었기 때문일 수 있습니다. + +`INVALID_REQUEST` +: 테스트 구성이 유효하지 않습니다(예: URL에 오타가 있습니다). + +`SSL` +: SSL 연결을 수행할 수 없습니다. [자세한 내용은 전용 오류 페이지를 참조하세요][9]. + +`TIMEOUT` +: 요청을 적절한 시간 내에 완료할 수 없습니다. 두 가지 유형의 `TIMEOUT` 오류가 발생할 수 있습니다. + - `TIMEOUT: The request couldn't be completed in a reasonable time.`는 요청 기간이 테스트에 정의된 시간 제한에 도달했음을 나타냅니다(기본값은 60초로 설정됨). + 각 요청에 대해 완료된 요청 단계만 네트워크 폭포에 표시됩니다. 예를 들어, `Total response time`만 표시되는 경우 DNS 확인 중에 시간 초과가 발생했습니다. + - `TIMEOUT: Overall test execution couldn't be completed in a reasonable time.`은 요청 및 어서션 실행 시간이 최대 실행 시간(60.5초)에 도달했음을 나타냅니다. + +`WEBSOCKET` +: WebSocket 연결이 닫혔거나 열 수 없습니다. 한 가지 유형의 `WEBSOCKET` 오류가 발생할 수 있습니다. + - `WEBSOCKET: Received message longer than the maximum supported length.`는 응답 메시지 길이가 최대 길이(50kb)에 도달했음을 나타냅니다. + +## 권한 허용 + +기본적으로 [Datadog Admin 및 Datadog Standard 역할][10]을 가진 사용자만 신서틱(Synthetic) WebSocket 테스트를 생성, 편집 및 삭제할 수 있습니다. 신서틱(Synthetic) WebSocket 테스트에 대한 생성, 편집 및 삭제 액세스 권한을 얻으려면 사용자를 두 가지 [기본 역할][10] 중 하나로 업그레이드하세요. + +[커스텀 역할 기능][11]을 사용하는 경우 `synthetics_read` 및 `synthetics_write` 권한을 포함하는 모든 커스텀 역할에 사용자를 추가합니다. + +### 액세스 제한 + +[커스텀 역할][12]로 설정된 계정 고객의 경우 액세스 제한이 가능합니다. + +조직 내 역할에 따라 WebSocket 테스트의 액세스를 제한할 수 있습니다. WebSocket 테스트를 생성할 때 사용자 외에 어떤 역할이 테스트를 읽고 쓸 수 있는지 선택합니다. + +{{< img src="synthetics/settings/restrict_access_1.png" alt="테스트에 대한 권한 설정" style="width:70%;" >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/synthetics/private_locations +[2]: /ko/synthetics/cicd_integrations +[3]: /ko/synthetics/search/#search +[4]: /ko/synthetics/settings/#global-variables +[5]: /ko/monitors/notify/#configure-notifications-and-automations +[6]: https://www.markdownguide.org/basic-syntax/ +[7]: /ko/monitors/notify/?tab=is_recoveryis_alert_recovery#conditional-variables +[8]: /ko/synthetics/guide/synthetic-test-monitors +[9]: /ko/synthetics/api_tests/errors/#ssl-errors +[10]: /ko/account_management/rbac/ +[11]: /ko/account_management/rbac#custom-roles +[12]: /ko/account_management/rbac/#create-a-custom-role \ No newline at end of file diff --git a/content/ko/synthetics/guide/synthetic-test-monitors.md b/content/ko/synthetics/guide/synthetic-test-monitors.md index 9cb1e70181dee..71fc0f6f999ec 100644 --- a/content/ko/synthetics/guide/synthetic-test-monitors.md +++ b/content/ko/synthetics/guide/synthetic-test-monitors.md @@ -17,8 +17,6 @@ title: 신서틱 테스트 모니터 사용 신서틱 테스트를 생성하면 Datadog에서 자동으로 관련 모니터를 생성합니다. 신서틱 테스트 모니터에 알림이 있을 때 알림을 받도록 설정할 수 있습니다. -{{< img src="synthetics/guide/synthetics_test_monitors/synthetic_test_monitor.png" alt="신서틱 테스트 모니터" style="width:100%;">}} - ## 신서틱 테스트 모니터 생성 <div class="alert alert-info"><a href="/monitors/">Monitors</a>에서 신서틱 테스트 모니터를 생성하거나 가져올 수 없습니다.</div> diff --git a/content/ko/synthetics/mobile_app_testing/_index.md b/content/ko/synthetics/mobile_app_testing/_index.md new file mode 100644 index 0000000000000..32f11f15d34af --- /dev/null +++ b/content/ko/synthetics/mobile_app_testing/_index.md @@ -0,0 +1,167 @@ +--- +aliases: +- /ko/mobile_testing +- /ko/mobile_app_testing +cascade: + algolia: + tags: + - mobile_testing +description: 지능형 자체 유지 관리 모바일 테스트를 생성하여 모바일 애플리케이션의 가장 중요한 부분이 실제 기기에서 실행되는지 확인합니다. +further_reading: +- link: https://www.datadoghq.com/blog/test-creation-best-practices/ + tag: 블로그 + text: 엔드 투 엔드 테스트 생성 모범 사례 +- link: /synthetics/mobile_app_testing/mobile_app_tests + tag: 설명서 + text: 신서틱(Synthetic) 모바일 앱 테스트 생성 방법 +- link: /synthetics/mobile_app_testing/settings + tag: 설명서 + text: iOS 또는 Android 모바일 애플리케이션을 업로드하는 방법 +- link: /continuous_testing/ + tag: 설명서 + text: Continuous Testing & CI/CD에 대해 알아보기 +title: Mobile Application Testing 및 모니터링 +--- + +{{< site-region region="gov" >}} +<div class="alert alert-warning">Mobile Application Testing은 이 사이트에서 지원되지 않습니다.</div> +{{< /site-region >}} + +## 개요 + +Mobile Application Testing을 사용하면 실제 장치를 사용하여 Android 및 iOS 애플리케이션의 주요 비즈니스 흐름을 테스트하고 모니터링할 수 있습니다. +Datadog은 실제 기기에서 이러한 테스트를 실행하여 주요 애플리케이션 워크플로의 사실적인 단계별 표현, 각 단계의 스크린샷, 자세한 합격 또는 실패 결과를 제공하므로 팀에서 무엇이 잘못되었는지 빠르게 시각화할 수 있습니다. +모바일 앱 테스트는 일정에 따라, 요청 시 또는 [CI/CD 파이프라인][1] 내에서 직접 실행할 수 있습니다. + +[**Digital Experience** > **New Test**][12]로 이동하여 **Mobile Application Test**를 선택하면 Datadog에서 모바일 앱 테스트를 생성할 수 있습니다. + +{{< img src="mobile_app_testing/new_test_2.png" alt="신서틱(Synthetic) 모바일 생성" style="width:50%;">}} + +### 취약성 + +취약성은 엔드투엔드 테스트의 문제점입니다. 테스트 실패는 실제 애플리케이션 문제가 아니라 식별자에 영향을 미치는 유효한 프런트엔드 코드 변경으로 인해 발생하는 경우가 있습니다. + +취약한 테스트를 방지하기 위해 Datadog은 로케이터 세트를 활용하여 모바일 앱 테스트의 요소를 타겟팅하는 알고리즘을 사용합니다. UI의 작은 변화로 인해 요소가 수정될 수 있습니다(예: 요소를 다른 위치로 이동). 모바일 앱 테스트는 변경 사항의 영향을 받지 않는 참조 지점을 기반으로 요소를 자동으로 다시 찾습니다. + +테스트가 성공적으로 실행되면 모바일 앱 테스트는 손상된 로케이터를 업데이트된 값으로 다시 계산(또는 "자체 복구")합니다. 이렇게 하면 테스트가 간단한 UI 업데이트로 인해 중단되지 않고 테스트가 모바일 애플리케이션의 UI에 자동으로 적응됩니다. + +## 설정 + +모바일 앱 테스트의 구성을 정의합니다. + +1. 드롭다운 메뉴에서 모바일 애플리케이션을 선택합니다. 아직 모바일 애플리케이션을 만들지 않았다면 [Synthetic Monitoring & Continuous Testing Settings 페이지][3]의 [Applications List 섹션][2]에서 모바일 애플리케이션을 생성하세요. +2. 테스트가 실행될 때마다 최신 버전의 모바일 애플리케이션을 사용하려면 **버전**을 선택하거나 **Always run the latest version**을 클릭합니다. +3. 테스트에 **이름**을 추가합니다. +4. 테스트와 관련된 **환경 및 추가 태그**를 선택합니다. 특정 `<KEY>`에 대해 `<VALUE>`를 필터링하려면 `<KEY>:<VALUE>` 형식을 사용합니다. +4. 테스트하려는 **기기**를 선택합니다. +5. 테스트의 재시도 조건을 설정합니다. +6. 기본 시간 간격을 클릭하거나 테스트 모니터에 대한 테스트 빈도 및 **경고 조건**을 사용자 정의하여 **테스트 빈도**를 설정합니다. +7. 테스트 모니터의 이름을 입력하고 알림을 보낼 서비스 또는 팀원을 선택한 후 메시지 알림을 추가합니다. + +{{% synthetics-variables %}} + +### 전역 변수 사용 + +모바일 앱 테스트 세부정보의 **Starting URL** 및 **Advanced Options**뿐만 아니라 테스트 기록에서도 [**Settings**에 정의된 전역 변수][4]를 사용하여 로컬 변수를 정의할 수 있습니다. 사용 가능한 변수 목록을 표시하려면 원하는 필드에 `{{`를 입력하세요. + +기록을 시작하기 전에 사용자 여정에 통합할 변수를 정의합니다. + +기록하는 동안 사용 가능한 변수를 삽입할 수 있습니다. 모바일 테스트 기록에서 변수를 사용하는 방법에 대한 자세한 내용은 [모바일 앱 테스트 단계][11]를 참조하세요. + +## 테스트 재시도 + +알림 경고를 트리거하기 전에 테스트가 실패해야 하는 시간을 지정할 수 있습니다. + +* 실패할 경우 `Y`밀리초 후 `X`회 재시도합니다. + +## 예약 및 경고 + +기본적으로 모바일 앱 테스트는 온디맨드 테스트로 설정됩니다. 즉, 이러한 테스트는 [CI 파이프라인에서 직접] 실행할 수 있습니다(#run-tests-in-ci). + +{{< img src="mobile_app_testing/alerting_rules.png" alt="모바일 테스트를 위한 예약 및 경고 조건" style="width:90%" >}} + +경고 조건을 사용자 정의하여 경고를 보낼 빈도와 테스트에서 알림 경고를 보내려는 상황을 정의할 수 있습니다. + +* `X`분 동안 어설션이 실패하면 경고가 트리거됩니다. + +### 테스트 모니터링 설정 + +설정된 경고 조건에 따라 알림이 전송됩니다. 이 섹션을 사용하여 팀에 메시지를 보내는 방법과 내용을 정의하세요. + +1. 모바일 앱 테스트를 위한 **메시지**를 입력합니다. 이 필드는 표준 [마크다운 형식][5]을 허용하고 다음 [조건 변수][6]를 지원합니다. + + | 조건 변수 | 설명 | + |----------------------------|---------------------------------------------------------------------| + | `{{#is_alert}}` | 모니터가 경고할 때 표시됩니다. | + | `{{^is_alert}}` | 모니터가 경고하지 않으면 표시됩니다. | + | `{{#is_recovery}}` | 모니터가 `alert`로부터 복구된 시점을 표시합니다. | + | `{{^is_recovery}}` | 모니터가 `alert`에서 복구되지 않으면 표시됩니다. | + | `{{#is_renotify}}` | 모니터가 다시 알림을 보낼 때 표시됩니다. | + | `{{^is_renotify}}` | 모니터가 다시 알림을 보내지 않을 때 표시됩니다. | + | `{{#is_priority}}` | 모니터가 우선순위(P1~P5)와 일치하는 경우에 표시합니다. | + | `{{^is_priority}}` | 모니터가 우선순위(P1~P5)와 일치하지 않는 경우 표시됩니다. | + + 알림 메시지에는 이 섹션에 정의된 **메시지**와 실패한 위치에 대한 정보가 포함됩니다. + +2. 알림을 보낼 팀원과 서비스를 선택하세요. +3. 재알림 빈도를 지정합니다. 실패한 테스트에 대한 재알림을 방지하려면 `Never renotify if the monitor has not been resolved` 옵션을 그대로 둡니다. +4. 테스트 구성을 저장하고 모바일 앱 테스트 단계를 기록하려면 **Save & Edit Recording**을 클릭하세요. + +자세한 내용은 [신서틱(Synthetic) 테스트 모니터링 사용][7]을 참조하세요. + +## CI에서 테스트 실행 + +필요에 따라 [테스트 `synthetics.json` 파일][13] 및 [전역 구성 `synthetics-ci.config` 파일][14]에서 `mobileApplicationVersionFilePath` 옵션을 정의하여 CI 파이프라인에서 모바일 앱 테스트를 실행할 수 있습니다. 전역 구성 파일 옵션은 테스트 구성 파일 옵션보다 우선합니다. + +이 예에서 `aaa-aaa-aaa` 테스트는 `application/path`에 있는 재정의 애플리케이션 버전을 사용하여 실행합니다. + +```json +// myTest.synthetics.json +{ + "tests": [ + { + "id": "aaa-aaa-aaa", + "config": { + "mobileApplicationVersionFilePath": "application/path" + } + } + ] +} +``` + +그런 다음 `$ datadog-ci synthetics run-tests --config synthetics-ci.config`를 실행합니다. + +[Continuous Testing 및 CI/CD][1]에서 자세한 정보를 확인하세요. + +## 권한 + +기본적으로 신서틱(Synthetic) 모바일 앱 테스트는 Datadog Admin 및 Datadog Standard 역할이 있는 사용자만 생성, 편집 및 삭제할 수 있습니다. 신서틱(Synthetic) 모바일 앱 테스트에 대한 생성, 편집 및 삭제 권한을 얻으려면 사용자를 두 가지 [기본 역할][8] 중 하나로 업그레이드하세요. + +[커스텀 역할 기능][9]을 사용하는 경우 `synthetics_read` 및 `synthetics_write` 권한이 포함된 사용자 정의 역할에 사용자를 추가하세요. + +### 액세스 제한 + +계정에서 [사용자 정의 역할][10]을 사용하는 고객은 액세스 제한을 사용할 수 있습니다. + +조직의 역할에 따라 모바일 앱 테스트에 대한 액세스를 제한할 수 있습니다. 모바일 앱 테스트를 생성할 때 사용자 외에 어떤 역할이 테스트를 읽고 쓸 수 있는지 선택하세요. + +{{< img src="synthetics/settings/restrict_access_1.png" alt="테스트에 대한 권한 설정" style="width:70%;" >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/continuous_testing/cicd_integrations/ +[2]: https://app.datadoghq.com/synthetics/settings/mobile-applications +[3]: /ko/mobile_app_testing/settings/ +[4]: /ko/synthetics/settings/?tab=specifyvalue#global-variables +[5]: https://daringfireball.net/projects/markdown/syntax +[6]: /ko/monitors/notify/variables/?tab=is_alert#conditional-variables +[7]: /ko/synthetics/guide/synthetic-test-monitors/ +[8]: /ko/account_management/rbac/?tab=datadogapplication#datadog-default-roles +[9]: /ko/account_management/rbac/?tab=datadogapplication#custom-roles +[10]: /ko/account_management/rbac/?tab=datadogapplication#create-a-custom-role +[11]: /ko/mobile_app_testing/mobile_app_tests/steps/ +[12]: https://app.datadoghq.com/synthetics/mobile/create +[13]: /ko/continuous_testing/cicd_integrations/configuration?tab=npm#test-files +[14]: /ko/continuous_testing/cicd_integrations/configuration/?tab=npm#global-configuration-file-options \ No newline at end of file diff --git a/content/ko/synthetics/platform/test_coverage/_index.md b/content/ko/synthetics/platform/test_coverage/_index.md new file mode 100644 index 0000000000000..c6bacafe57679 --- /dev/null +++ b/content/ko/synthetics/platform/test_coverage/_index.md @@ -0,0 +1,157 @@ +--- +aliases: +- /ko/synthetics/dashboards/testing_coverage +- /ko/synthetics/test_coverage +description: 브라우저 액션 및 API 엔드포인트에 대한 테스트 스위트의 커버리지를 평가하세요. +further_reading: +- link: https://www.datadoghq.com/blog/test-coverage-monitoring-datadog/ + tag: 블로그 + text: Datadog RUM 및 신서틱(Synthetic) 모니터링으로 테스트 커버리지를 추적하세요. +- link: https://www.datadoghq.com/blog/api-test-coverage-monitoring-datadog-synthetics/ + tag: 블로그 + text: Datadog 신서틱(Synthetic) 모니터링을 사용해 API 테스트 범위 개선 +- link: /synthetics/browser_tests + tag: 설명서 + text: 신서틱(Synthetic) 브라우저 테스트 알아보기 +- link: /real_user_monitoring/browser/tracking_user_actions + tag: 설명서 + text: RUM 액션에 대해 알아보기 +- link: /real_user_monitoring/session_replay + tag: 설명서 + text: 세션 재생에 대해 알아보기 +- link: /api_catalog + tag: 설명서 + text: API Catalog에 대해 알아보기 +title: 테스트 지원 범위 +--- + +## 개요 + +**Digital Experience** > **Synthetic Monitoring & Testing**에서 찾을 수 있는 [**Test Coverage**페이지][1]에서 RUM 브라우저 액션 또는 API 엔드포인트에 대한 테스트 스위트의 신서틱(Synthetic) 테스트 커버리지를 살펴보세요. + +{{< tabs >}} +{{% tab "Browser Actions" %}} +[**Test Coverage**페이지][1]는 [RUM 애플리케이션][2]의 전체 테스트 커버리지에 대한 실제적인 인사이트를 제공합니다. 이를 위해 [Browser RUM SDK에서 수집된 데이터][3] 및 [신서틱(Synthetic) 브라우저 테스트 결과][4]를 사용합니다. + +{{< img src="synthetics/test_coverage/browser_actions.png" alt="Overview 섹션, Untested Actions 섹션 및 Tested Actions 섹션이 있는 Test Coverage 페이지" style="width:100%" >}} + +Test Coverage 페이지에는 다음 정보가 표시됩니다. + +- 가장 많이 방문한 웹페이지 +- 테스트된 [RUM 액션]의 비율[5] +- 테스트된 액션 수 및 총 액션 수 +- 액션을 다루는 브라우저 테스트 수 +- 실제 사용자 인터랙션 수 + +## 애플리케이션 또는 뷰에 대한 테스트 커버리지 조사 + +테스트되지 않은 액션을 식별하고 Test Coverage 페이지에서 실제 사용자 인터랙션과 연결하여 보다 포괄적이고 정확한 테스트 스위트를 구축할 수 있습니다. + +브라우저 테스트를 생성해야 하는 애플리케이션 또는 뷰의 영역을 식별하려면 다음을 수행하세요. + +1. **Application** 드롭다운 메뉴에서 RUM 애플리케이션을 선택하거나 **View Name** 드롭다운 메뉴에서 뷰를 선택합니다. +2. **Custom**을 클릭하면 생성된 액션보다 더 고유하고 정확한 커버리지 결과를 제공하는 [커스텀 액션][5]에 대한 데이터를 필터링할 수 있습니다. 테스트 커버리지 분석에 생성된 액션을 포함하려면 **All Actions**를 선택합니다. +3. 다음 섹션에 제시된 정보를 검토하여 테스트 커버리지의 차이를 식별하세요. + + **Test Coverage Overview** + : 테스트 중인 액션의 백분율, 실제 사용자 인터랙션 수에 따라 가중치가 부여된 테스트 중인 액션의 백분율, 사용자 세션 및 브라우저 테스트 수가 포함된 상위 뷰 목록, 테스트 중인 액션의 백분율을 표시합니다. + + **Untested Actions** + : 테스트되지 않은 사용자 액션 수, 수집된 총 액션 수, 실제 사용자가 가장 많이 상호 작용하지만 테스트되지 _않은_ 상위 액션 목록을 표시합니다. + + **Tested Actions** + : 사용자 액션을 다루는 브라우저 테스트 수, 실제 사용자 인터랙션 수, 실제 사용자가 가장 많이 상호 작용하고 _테스트 중인_ 상위 액션 목록을 표시합니다. + + [Test Coverage 페이지][1]는 광범위하게 사용되는 액션을 채우고 애플리케이션에서 덜 사용되는 액션을 숨깁니다. 표시되는 데이터에 대한 자세한 내용은 [신서틱(Synthetic) 모니터링 메트릭][6]를 참조하세요. + +## 세션 재생 확인 및 테스트 추가 + +다음 질문에 대한 답변은 [Test Coverage 페이지][1]에서 확인할 수 있습니다. + +- 애플리케이션에서 테스트되지 않는 작업은 무엇인가요? +- 사용자들에게 가장 인기 있는 뷰는 무엇인가요? +- 브라우저 테스트가 더 필요한 액션은 무엇인가요? +- 사용자 액션을 다루는 브라우저 테스트의 비율은 얼마나 되나요? + +### 세션 재생 보기 + + **Untested Actions** 테이블의 액션 옆에 있는 **Play** 아이콘을 클릭하여 [Session Replay][8]의 [실제 사용자 인터랙션 기록][7]을 확인합니다. + +### 액션 조사하기 + +액션을 클릭하면 선택한 액션이 포함된 테스트, 뷰, 세션 및 이에 대한 하위 집합에 액세스할 수 있습니다. + +{{< img src="synthetics/test_coverage/tested_action.png" alt="관련 신서틱(Synthetic) 테스트, RUM 뷰, 세션 재생을 표시하는 탭이 있는 액션 사이드 패널" style="width:100%" >}} + +애플리케이션의 주요 사용자 여정이 코드로 인해 부정적인 영향을 받을 때 알림을 받으려면 애플리케이션의 가장 인기 있는 섹션을 새 브라우저 테스트 또는 기존 브라우저 테스트에 추가하세요. + +테스트를 생성하려면 [Test Coverage 페이지][1]오른쪽 상단에 있는 **+ New Test**를 클릭합니다. 프로덕션 환경에서 코드를 출시하기 전에 회귀가 발생하지 않도록 [CI/CD 파이프라인에서 직접][9] 테스트를 실행할 수 있습니다. + +[1]: https://app.datadoghq.com/synthetics/test-coverage/browser +[2]: /ko/synthetics/guide/explore-rum-through-synthetics/ +[3]: /ko/real_user_monitoring/browser/data_collected/ +[4]: /ko/synthetics/browser_tests/ +[5]: /ko/real_user_monitoring/guide/send-rum-custom-actions/ +[6]: /ko/synthetics/metrics/ +[7]: /ko/real_user_monitoring/session_replay/browser/ +[8]: https://app.datadoghq.com/rum/explorer/ +[9]: /ko/continuous_testing/ + +{{% /tab %}} +{{% tab "API Endpoints" %}} + +[**Test Coverage** 페이지][1]는 [API 엔드포인트][2]의 전체 테스트 커버리지에 대한 실제적인 인사이트를 제공합니다. 이를 위해 [API Catalog에서 수집된 데이터][2] 및 [APM의 스팬][3]을 사용합니다. + +{{< img src="synthetics/test_coverage/api_endpoints.png" alt="Overview 섹션, Untested Actions 섹션, Tested Actions 섹션이 있는 Test Coverage 페이지" style="width:100%" >}} + +Test Coverage 페이지에는 다음 정보가 표시됩니다. + +- API 엔드포인트의 전체 커버리지 +- 테스트된 API 엔드포인트의 비율 +- 요청 수가 가장 많으며 테스트되지 않은 API 엔드포인트 수(오류율 기준으로 정렬) +- CI에서 테스트되지 않은 API 테스트를 포함하는 테스트된 API 엔드포인트의 비율 +- [APM 모니터][4]가 있는 테스트되지 않은 API 엔드포인트의 수 + +## API 엔드포인트에 대한 테스트 커버리지 조사 + +신서틱(Synthetic) 테스트가 실패하고 API 엔드포인트의 성능이 저하되는 문제를 해결하여 포괄적이고 정확한 테스트 스위트를 유지하세요. + +API 테스트를 생성해야 하는 테스트 스위트 영역을 식별하려면 다음을 수행하세요. + +1. **API overall coverage** 섹션에서 **Untested** 체크박스를 클릭합니다. +2. 엔드포인트 사이드 패널을 조사하여 엔드포인트에 대해 생성된 모든 통과 또는 실패 테스트를 확인합니다. **Dependency Map**에는 엔드포인트 성능 저하의 원인이 될 수 있는 업스트림 문제와 영향을 받는 다운스트림 종속성이 표시됩니다. +3. 다음 섹션에 제시된 정보를 검토하여 API 테스트 커버리지의 차이를 식별하세요. + + **API Overall Coverage** + : 태그 범위 내에서 테스트되지 않은 모든 엔드포인트를 표시합니다. + + **Performance** + : 가장 참여도가 높고 테스트되지 않은 엔드포인트 중 오류율이 높은 엔드포인트를 표시합니다. + + **Tested in the CI** + : CI 파이프라인에서 현재 테스트 중인 엔드포인트를 표시합니다. + + **APM Monitors** + : 테스트되지 않았지만 활성 모니터가 있는 엔드포인트를 표시합니다. + +표시되는 데이터에 대한 자세한 내용은 [APM 메트릭][5]을 참조하세요. + +## 테스트 추가하기 + +테스트를 생성하려면 [Test Coverage 페이지][1] 오른쪽 상단에 있는 **+ New Test**를 클릭하세요. 프로덕션 환경에서 코드를 출시하기 전에 회귀가 발생하지 않도록 [CI/CD 파이프라인에서 직접][6] 테스트를 실행할 수 있습니다. + +[1]: https://app.datadoghq.com/synthetics/test-coverage/api +[2]: /ko/api_catalog/monitor_apis/ +[3]: /ko/tracing/ +[4]: /ko/monitors/types/apm +[5]: /ko/tracing/metrics/ +[6]: /ko/continuous_testing/ + +{{% /tab %}} +{{< /tabs >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/synthetics/test-coverage/browser \ No newline at end of file diff --git a/content/ko/tracing/trace_explorer/search.md b/content/ko/tracing/trace_explorer/search.md index 01b21d24ffd11..79c8dfdcaeaa3 100644 --- a/content/ko/tracing/trace_explorer/search.md +++ b/content/ko/tracing/trace_explorer/search.md @@ -24,7 +24,6 @@ title: 스팬(span) 검색 {{< img src="tracing/trace_explorer/search/trace_explorer_top_list_search.png" alt="트레이스 익스플로러 목록 검색. 시각화 옵션이 목록으로 설정되어 있음." style="width:100%;">}} {{< site-region region="us,eu,us3,us5,ap1" >}} -**참고**: `key:value` 쿼리는 사전에 [패싯을 선언][1]할 필요가 **없습니다**. [1]: /ko/tracing/trace_explorer/query_syntax/#facets {{< /site-region >}} diff --git a/data/partials/home.es.yaml b/data/partials/home.es.yaml index 80c1360898ec2..ecb378bf21e5b 100644 --- a/data/partials/home.es.yaml +++ b/data/partials/home.es.yaml @@ -1,10 +1,10 @@ guides: -- desc: Recopila eventos y métricas de tus hosts que envían datos a Datadog. +- desc: Recopila eventos y métricas de los hosts que envían datos a Datadog. link: getting_started/agent/ link_text: Empezando con el Agent title: Instalar el Agent -- desc: Recopila métricas, trazas y logs con más de 750 integraciones de serie para - enviar a Datadog. +- desc: Reúne métricas, trazas (traces) y logs con más de 750 integraciones incorporadas + para enviar a Datadog. link: getting_started/integrations/ link_text: Empezando con las integraciones title: Configurar integraciones @@ -16,7 +16,7 @@ guides: heading: ¡Te damos la bienvenida a la documentación de Datadog! nav_sections: - nav_section: - - name: Plataforma + - name: Servicios de la plataforma - navtiles: - desc: Instalar y configurar el Agent para recopilar y enviar datos icon: agent-fill @@ -26,7 +26,7 @@ nav_sections: icon: integrations link: integrations/ title: Integraciones - - desc: Canalizar tus métricas, logs y trazas de OpenTelemetry a Datadog + - desc: Canalizar tus métricas, logs y trazas (traces) de OpenTelemetry a Datadog icon: open-telemetry link: opentelemetry/ title: OpenTelemetry @@ -34,97 +34,139 @@ nav_sections: icon: dashboard link: dashboards/ title: Dashboards - - desc: Supervisar tus hosts, contenedores, procesos y funciones serverless - icon: host-map - link: infrastructure/ - title: Infrastructure (Infraestructura) - - desc: Dar seguimiento a los cambios y alertas en tus aplicaciones e infraestructura - icon: events - link: events/ - title: Events (Eventos) - - desc: Explorar, buscar y crear distribuciones para tus métricas - icon: metric - link: metrics/ - title: Métricas - desc: Crear, editar y gestionar tus monitores y notificaciones icon: monitor link: monitors/ - title: Alertar + title: Monitors y alertar + - desc: Detectar y mostrar anomalías de la aplicación e infraestructura + icon: watchdog + link: watchdog/ + title: Datadog Watchdog + - desc: Ver alertas de Datadog, incidentes y más en tu dispositivo móvil + icon: apm + link: mobile/ + title: Aplicación móvil + - desc: Identificar, analizar y mitigar incidentes perturbadores en tu organización + icon: rum + link: gestión_de_servicios/gestión_de_incidentes + title: Gestión de incidentes + - desc: Dar seguimiento a los cambios y alertas en tus aplicaciones e infraestructura + icon: rastreo + link: events/ + title: Eventos + - desc: Automatizar y orquestar procesos en todo tu stack tecnológico + icon: rastreo + link: rastreo + title: Automatización de flujos de trabajo +- nav_section: + - name: Productos + - navtiles: + - desc: Supervisar tus hosts, contenedores, procesos y funciones serverless + icon: metric + link: infrastructure/ + title: Infraestructura + - desc: Detectar y solucionar problemas de rendimiento en tus aplicaciones serverless + icon: serverless + link: serverless/ + title: Serverless + - desc: Usar objetos etiquetados para recopilar y generar gráficos de datos sobre + el tráfico de tu red + icon: la red + link: real_user_monitoring/ + title: Monitorización de red + - desc: Controla tu gasto en la nube con datos unificados sobre observabilidad + y costos + icon: database-2 + link: database_monitoring/ + title: Gestión de costos en la nube - desc: Explorar dashboards de rendimiento listos para usar y trazas distribuidas icon: apm link: tracing/ title: APM - desc: Comparar snapshots de rendimiento e investigar cuellos de botella icon: profiling-1 - link: profiler/ - title: Continuous Profiler - - desc: Procesar, monitorizar y archivar tus logs ingeridos + link: continuous_integration/ + title: Perfilador continuo + - desc: Explorar dashboards enriquecidos, métricas de consultas y ejemplos de + consultas icon: log - link: logs/ - title: Log Management - - desc: Detectar amenazas y configuraciones incorrectas en tus aplicaciones e - infraestructura - icon: security-platform - link: security/ - title: Seguridad + link: tracing/trace_explorer/ + title: Monitorización de bases de datos + - desc: Rastrear y mejorar el rendimiento de tus pipelines de streaming de datos + icon: pipelines + link: real_user_monitoring/ + title: Monitorización de flujos (streams) de datos + - desc: Monitorizar y optimizar tus trabajos de procesamiento de datos + icon: datos-trabajos-Monitorización + link: data_jobs/ + title: Monitorización de trabajos de datos + - desc: Descubrir, asignar y monitorizar servicios sin cambiar el código + icon: usm + link: continuous_testing/ + title: Universal Service Monitoring - desc: Garantizar el tiempo de actividad, avisar de problemas regionales y probar el rendimiento de aplicaciones - icon: synthetics - link: synthetics/ - title: Synthetic Monitoring - - desc: Hacer tests de un extremo a otro y de integración sin código con proveedores - de CI/CD - icon: continuous-testing - link: continuous_testing/ - title: Tests continuos - - desc: Registrar, observar y analizar la experiencia del uso de tus aplicaciones icon: rum link: real_user_monitoring/ + title: Monitorización Synthetic + - desc: Identificar los errores críticos y acelerar la resolución en la web, los + dispositivos móviles y el backend. + icon: '' + link: '' + title: Rastreo de errores + - desc: Capturar, observar y analizar la experiencia del usuario de tus aplicaciones + icon: '' + link: '' title: Real User Monitoring - - desc: Usar objetos etiquetados para recopilar y generar gráficos de datos sobre - el tráfico de tu red - icon: la red - link: network_monitoring/ - title: Monitorización de redes - - desc: Detectar y resolver problemas de rendimiento en tus aplicaciones serverless - icon: serverless - link: serverless/ - title: Serverless - - desc: Ver alertas de Datadog, incidentes y más en tu dispositivo móvil - icon: mobile - link: mobile/ - title: Aplicación móvil - - desc: Detectar y mostrar anomalías de la aplicación e infraestructura - icon: watchdog - link: watchdog/ - title: Datadog Watchdog - - desc: Ver métricas de tests, resultados de compilación y ejecuciones de pipeline - para tu canalización de CI + - desc: Obtener información sobre el comportamiento de los usuarios y tomar decisiones + de productos controlados por datos + icon: '' + link: '' + title: Análisis de productos + - desc: Monitorizar recorridos del usuario y transacciones comerciales en aplicaciones + móviles + icon: '' + link: '' + title: Test de aplicaciones móviles + - desc: Hacer tests de un extremo a otro y de integración sin código con proveedores + de CI/CD + icon: '' + link: '' + title: Tests continuos + - desc: Monitor del mantenimiento y el rendimiento de tus pipelines de CI icon: ci - link: continuous_integration/ + link: '' title: CI Visibility - - desc: Controla tu gasto en la nube con observabilidad unificada y datos de costes - icon: cloud-cost-management - link: cloud_cost_management/ - title: Gestión de costes en la nube - - desc: Explorar dashboards enriquecidos, métricas de consultas y ejemplos de - consultas - icon: database-2 - link: database_monitoring/ - title: Monitorización de bases de datos + - desc: Detectar tests defectuosos e identificar confirmaciones que introduzcan + tests defectuosos + icon: '' + link: '' + title: Visibility de tests + - desc: Detectar amenazas, vulnerabilidades y errores de configuración + icon: '' + link: '' + title: Seguridad + - desc: Explorar, buscar y crear distribuciones para tus métricas + icon: '' + link: '' + title: Métricas + - desc: Procesar, monitorizar y archivar tus logs ingeridos + icon: '' + link: '' + title: Gestión de logs - desc: Gestionar y monitorizar tus pipelines de telemetría - icon: pipelines - link: observability_pipelines/ + icon: '' + link: '' title: Pipelines de observabilidad - - desc: Descubrir, asignar y monitorizar servicios sin cambiar el código - icon: usm - link: universal_service_monitoring/ - title: Universal Service Monitoring + - desc: Rastrear, monitorizar y asegurar tus solicitudes de LLM + icon: llm-observabilidad + link: llm_observability/ + title: Observabilidad de LLM - nav_section: - name: Configuración - navtiles: - desc: Probar la API de Datadog - icon: api + icon: cog-2 link: api/latest/ title: API - desc: Acceder a la configuración y la facturación basadas en la organización