From 50fb598240ae8943b2dc7f456ca10d23f29185e0 Mon Sep 17 00:00:00 2001 From: guacbot Date: Thu, 29 Aug 2024 18:48:32 -0400 Subject: [PATCH] Translation Pipeline PR (#24978) * Deleting translations of content/ko/service_catalog/import_entries_dd.md * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * updating translations * adding translations * adding translations * adding translations * adding translations * adding translations * adding translations * fixing build failures in korean docs --------- Co-authored-by: Alicia Scott Co-authored-by: aliciascott --- .../threats/threat-intelligence.md | 116 +++--- content/ko/glossary/terms/baseline_mean.md | 8 + .../terms/baseline_standard_deviation.md | 8 + ...erformance_regression_(Test Visibility).md | 9 + .../terms/processing_pipeline_(Events).md | 8 + content/ko/glossary/terms/test_duration.md | 9 + content/ko/glossary/terms/test_run.md | 7 + .../legacy/reference/_index.md | 12 + .../processing_language/functions.md | 32 ++ .../legacy/reference/sinks.md | 12 + .../legacy/reference/transforms.md | 12 + .../integrations/kafka_metrics.md | 305 +++++++++++++++ .../interoperability/api_support.md | 27 ++ .../data_collected/reactnative.md | 34 ++ .../mobile_and_tv_monitoring/setup/flutter.md | 370 ++++++++++++++++++ content/ko/security/audit_trail.md | 42 ++ .../ko/serverless/aws_lambda/opentelemetry.md | 184 +++++++++ .../ko/service_catalog/import_entries_dd.md | 46 --- .../events/guides/_index.md | 47 +++ .../custom_instrumentation/cpp/_index.md | 6 + .../custom_instrumentation/elixir.md | 19 + .../custom_instrumentation/go/_index.md | 6 + .../custom_instrumentation/java/_index.md | 6 + .../custom_instrumentation/php/_index.md | 6 + .../custom_instrumentation/ruby/_index.md | 6 + .../custom_instrumentation/rust.md | 19 + .../custom_instrumentation/swift.md | 19 + 27 files changed, 1271 insertions(+), 104 deletions(-) create mode 100644 content/ko/glossary/terms/baseline_mean.md create mode 100644 content/ko/glossary/terms/baseline_standard_deviation.md create mode 100644 content/ko/glossary/terms/performance_regression_(Test Visibility).md create mode 100644 content/ko/glossary/terms/processing_pipeline_(Events).md create mode 100644 content/ko/glossary/terms/test_duration.md create mode 100644 content/ko/glossary/terms/test_run.md create mode 100644 content/ko/observability_pipelines/legacy/reference/_index.md create mode 100644 content/ko/observability_pipelines/legacy/reference/processing_language/functions.md create mode 100644 content/ko/observability_pipelines/legacy/reference/sinks.md create mode 100644 content/ko/observability_pipelines/legacy/reference/transforms.md create mode 100644 content/ko/opentelemetry/integrations/kafka_metrics.md create mode 100644 content/ko/opentelemetry/interoperability/api_support.md create mode 100644 content/ko/real_user_monitoring/mobile_and_tv_monitoring/data_collected/reactnative.md create mode 100644 content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md create mode 100644 content/ko/security/audit_trail.md create mode 100644 content/ko/serverless/aws_lambda/opentelemetry.md delete mode 100644 content/ko/service_catalog/import_entries_dd.md create mode 100644 content/ko/service_management/events/guides/_index.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/cpp/_index.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/elixir.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/go/_index.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/java/_index.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/php/_index.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/ruby/_index.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/rust.md create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/swift.md diff --git a/content/ja/security/application_security/threats/threat-intelligence.md b/content/ja/security/application_security/threats/threat-intelligence.md index 1709e91080e43..5f5aee37dfa4d 100644 --- a/content/ja/security/application_security/threats/threat-intelligence.md +++ b/content/ja/security/application_security/threats/threat-intelligence.md @@ -11,62 +11,62 @@ title: Threat Intelligence ## 概要 -This topic describes [threat intelligence][1] for Application Security Management (ASM). +このトピックでは、Application Security Management (ASM) における[脅威インテリジェンス][1]について説明します。 -Datadog provides built-in threat intelligence [datasets][1] for ASM. This provides additional evidence when acting on security activity and reduces detection thresholds for some business logic detections. +Datadog は、ASM 向けに組み込みの脅威インテリジェンス[データセット][1]を提供しており、これによりセキュリティ活動に対する追加の証拠が得られ、一部のビジネスロジック検出のしきい値が低減されます。 -Additionally, ASM supports *bring your own threat intelligence*. This functionality enriches detections with business-specific threat intelligence. +さらに、ASM は *Bring Your Own Threat Intelligence* (BYOTI) をサポートしており、この機能により、ビジネス特有の脅威インテリジェンスで検出が強化されます。 ## ベストプラクティス -Datadog recommends the following methods for consuming threat intelligence: +Datadog は、脅威インテリジェンスの活用方法として以下を推奨しています。 -1. Reducing detection rule thresholds for business logic threats such as credential stuffing. Users can clone the default [Credential Stuffing][6] rule and modify it to meet their needs. -2. Using threat intelligence as a indicator of reputation with security activity. +1. クレデンシャルスタッフィングなどのビジネスロジックに対する脅威の検出ルールのしきい値を低く設定すること。ユーザーは、デフォルトの[クレデンシャルスタッフィング][6]ルールを複製し、ニーズに応じてカスタマイズすることができます。 +2. セキュリティ活動において、脅威インテリジェンスをレピュテーションの指標として活用すること。 -Datadog recommends _against_ the following: -1. Blocking threat intelligence traces without corresponding security activity. IP addresses might have many hosts behind them. Detection of a residential proxy means that the associated activity has been observed by a host behind that IP. It does not guarantee that the host running the malware or proxy is the same host communicating with your services. -2. Blocking on all threat intelligence categories, as this is inclusive of benign traffic from corporate VPNs and blocks unmalicious traffic. +Datadog は、以下を推奨しません。 +1. セキュリティ活動に対応していない脅威インテリジェンスのトレースをブロックすること。IP アドレスの背後には多くのホストが存在する可能性があり、住宅用プロキシが検出された場合、その IP アドレスの背後にあるホストが関連する活動を行っていたことを示しますが、そのホストがマルウェアやプロキシを実行しているホストと、あなたのサービスと通信しているホストが同一であることを保証するものではありません。 +2. すべての脅威インテリジェンスカテゴリーに対してブロックを行うこと。これにより、企業の VPN からの良性のトラフィックや悪意のないトラフィックもブロックされる可能性があります。 -## Filtering on threat intelligence in ASM +## ASM の脅威インテリジェンスのフィルタリング -Users can filter threat intelligence on the Signals and Traces explorers using facets and the search bar. +ユーザーは、Signal Explorer と Traces Explorer 上でファセットや検索バーを使用して脅威インテリジェンスをフィルタリングできます。 -To search for all traces flagged by a specific source, use the following query with the source name: +特定のソースによってフラグ付けされたすべてのトレースを検索するには、次のクエリをソース名と共に使用します。 @threat_intel.results.source.name: -To query for all traces containing threat intelligence from any source, use the following query: +任意のソースからの脅威インテリジェンスを含むすべてのトレースを検索するには、次のクエリを使用します。 @appsec.threat_intel:true -## Bring your own threat intelligence +## Bring Your Own Threat Intelligence {{< callout url="https://forms.gle/JV8VLH1ZTzmUnK5F7" d-toggle="modal" d_target="#signupModal" custom_class="sign-up-trigger">}} - Bring your own threat intelligence (BYOTI) is in private beta. -{{< /callout >}} +Bring Your Own Threat Intelligence (BYOTI) は非公開ベータ版です。 +{{< /callout >}} -ASM supports enriching and searching traces with threat intelligence indicators of compromise stored in Datadog reference tables. [Reference Tables][2] allow you to combine metadata with information already in Datadog. +ASM は、Datadog リファレンステーブルに格納された脅威インテリジェンスの侵害指標を使用して、トレースの拡充と検索をサポートします。[リファレンステーブル][2]を使用すると、Datadog にすでに存在する情報とメタデータを組み合わせることができます。 -### Storing indicators of compromise in reference tables +### 侵害指標をリファレンステーブルに格納 -Threat intelligence is supported in the CSV format and requires 4 columns. +脅威インテリジェンスは CSV 形式でサポートされ、4 列が必要です。 -**CSV Structure** +**CSV 構造** -| field | データ | 説明| 必須 | 例| +| フィールド | データ | 説明| 必須 | 例| |------------------|-------|----|-----|--| -| ip_address | テキスト | The primary key for the reference table in the IPv4 dot notation format. | true | 192.0.2.1 | -| additional_data | json | Additional data to enrich the trace. | false | `{"ref":"hxxp://example.org"}` -| category | テキスト | The threat intel [category][7]. This is used by some out of the box detection rules. | true | `residential_proxy` | -| intention | テキスト | The threat intel [intent][8]. This is used by some out of the box detection rules.| true | 悪意がある | | -| source | テキスト | The name of the source and the link to its site, such as your team and your teams wiki. | true| `{"name":"internal_security_team", "url":"https://teamwiki.example.org"}` | | +| ip_address | テキスト | IPv4 のドット表記形式のリファレンステーブルのプライマリキー。 | true | 192.0.2.1 | +| additional_data | json | トレースを強化するための追加データ。 | false | `{"ref":"hxxp://example.org"}` +| category | テキスト | 脅威インテリジェンスの[カテゴリー][7]。これは、すぐに使える検出ルールで使用されます。 | true | `residential_proxy` | +| intention | テキスト | 脅威インテリジェンスの[意図][8]。すぐに使える検出ルールで使用されます。| true | 悪意がある | | +| source | テキスト | ソースの名前とそのサイトへのリンク (例: あなたのチームとチームの Wiki)。 | true| `{"name":"internal_security_team", "url":"https://teamwiki.example.org"}` | | -The full list of supported categories and intents is available at [Threat Intelligence Facets][3]. +サポートされているカテゴリーと意図の全リストは、[Threat Intelligence Facets][3] で確認できます。 -
JSON in a CSV requires double quoting. The following is an example CSV.
+
CSV 内の JSON には二重引用符が必要です。以下はその例です。
``` ip_address,additional_data,category,intention,source @@ -75,61 +75,61 @@ ip_address,additional_data,category,intention,source 192.0.2.3,"{""ref"":""hxxp://example.org""}",scanner,suspicious,"{""name"":""internal_security_team"", ""url"":""https://teamwiki.example.org""}" ``` -### Uploading and enabling your own threat intel +### 独自の脅威インテリジェンスをアップロードして有効化する -On a new [references table][4] page: +新しい[リファレンステーブル][4]ページで、 -1. Name the table. The table name is referenced in ASM's **Threat Intel** config. -2. Upload a CSV. -3. Preview the table schema and choose the IP address as the Primary Key. +1. テーブルに名前を付けます。この名前は ASM の **Threat Intel** 構成で参照されます。 +2. CSV をアップロードします。 +3. テーブルスキーマをプレビューし、IP アドレスをプライマリキーとして選択します。 - {{< img src="/security/application_security/threats/threat_intel/threat_intel_ref_table.png" alt="New reference table" style="width:100%;" >}} -4. Save the table. -5. In [Threat Intel][5], locate the new table, and then select the toggle to enable it. + {{< img src="/security/application_security/threats/threat_intel/threat_intel_ref_table.png" alt="新しいリファレンステーブル" style="width:100%;" >}} +4. テーブルを保存します。 +5. [Threat Intel][5] で新しいテーブルを見つけ、トグルを選択して有効にします。 - {{< img src="/security/application_security/threats/threat_intel/threat_intel_ref_table_enabled.png" alt="Enabled reference table" style="width:100%;" >}} + {{< img src="/security/application_security/threats/threat_intel/threat_intel_ref_table_enabled.png" alt="有効なリファレンステーブル" style="width:100%;" >}} -### Filter traces by joining the list with a Reference Table +### リファレンステーブルとリストを結合してトレースをフィルタリングする -You can filter ASM traces in Datadog by joining a trace table with a Reference Table. +Datadog では、トレーステーブルをリファレンステーブルと結合することで、ASM トレースをフィルタリングできます。 -To join a Reference Table with a trace query, you combine rows from the Datadog trace table and a Reference Table based on a related column between them. The traces query returns only those traces where there is a match in both tables. +リファレンステーブルをトレースクエリと結合するには、Datadog のトレーステーブルとリファレンステーブルの関連する列に基づいて、それらのテーブルの行を結合します。トレースクエリは、両方のテーブルで一致するものがあるトレースのみを返します。 -Using a join with a Reference Table enables you to evaluate impact before enrichment by searching for historical matches with existing traces. +リファレンステーブルとの結合を使用することで、既存のトレースとの過去の一致を検索し、強化前の影響を評価することができます。 -You can use any fields, not just IP addresses. For example, by associating security traces with specific URLs from a reference table, you can identify which parts of your application are being targeted by attacks. This can help pinpoint vulnerabilities or high-risk areas within the application. +IP アドレスに限らず、任意のフィールドを使用できます。たとえば、リファレンステーブルの特定の URL とセキュリティトレースを関連付けることで、アプリケーションのどの部分が攻撃の標的となっているかを特定できます。これにより、アプリケーション内の脆弱性やリスクの高い領域を正確に特定できます。 例: -- Investigation and incident response. You can upload and join using IPs or other fields from attacks and see the traffic related to that incident. -- By using security traces with the IP addresses from a Reference Table, such as associating IP addresses with geographic locations or organizational details, security teams can gain better context around attack attempts. This can help in understanding the origin and potential motivation behind the attacks. +- 調査とインシデント対応。攻撃の IP アドレスやその他のフィールドをアップロードして結合し、そのインシデントに関連するトラフィックを確認することができます。 +- リファレンステーブルの IP アドレスとセキュリティトレースを結合し、例えば IP アドレスを地理的な場所や組織の詳細と関連付けることで、セキュリティチームは攻撃の試みに関するより優れたコンテキストを得ることができます。これにより、攻撃の起源や潜在的な動機を理解するのに役立ちます。 -To join a trace with a Reference Table: +リファレンステーブルにトレースを結合するには -1. Upload the Reference Table you want to use as described in [Uploading and enabling your own threat intel](#uploading-and-enabling-your-own-threat-intel). -2. To join a trace with a Reference Table, in [Traces][9], select **Add**, and then select **Join with Reference Table**. -3. In **Inner join with reference table**, select the Reference Table to use. -4. In **where field**, select the Datadog traces field to use for the join. -5. In **column**, select the Reference Table field to use for the join. +1. [独自の脅威インテリジェンスをアップロードして有効化する](#uploading-and-enabling-your-own-threat-intel)で説明されているように、使用するリファレンステーブルをアップロードします。 +2. トレースをリファレンステーブルと結合するには、[Traces][9] で **Add** を選択し、その後 **Join with Reference Table** を選択します。 +3. **Inner join with reference table** で使用するリファレンステーブルを選択します。 +4. **where field** で、結合に使用する Datadog トレースフィールドを選択します。 +5. **column** では、結合に使用するリファレンステーブルのフィールドを選択します。 -{{< img src="security/application_security/threats/threat_intel/threat_intel_ref_join.png" alt="Your image description" style="width:100%;" >}} +{{< img src="security/application_security/threats/threat_intel/threat_intel_ref_join.png" alt="イメージの説明" style="width:100%;" >}} -### Enriching traces for detection rules +### 検出ルール用のトレースの強化 -Enriching traces includes the threat intelligence attributes in ASM traces when the indicator of compromise matches the value of the `http.client_ip` key in the ASM trace. This enables searching for traces with threat intelligence matches using existing facets and using threat intelligence with detection rules. +トレースの強化には、侵害の兆候が ASM トレース内の `http.client_ip` キーの値と一致する場合に、ASM トレースに脅威インテリジェンス属性を含めることが含まれます。これにより、既存のファセットを使用して脅威インテリジェンスと一致するトレースを検索したり、脅威インテリジェンスを検出ルールで活用したりすることが可能になります。 -## Threat intelligence in the user interface +## ユーザーインターフェイスにおける脅威インテリジェンス -When viewing the traces in the ASM Traces Explorer, you can see threat intelligence data under the `@appsec` attribute. The `category` and `security_activity` attributes are both set. +ASM Traces Explorer でトレースを表示すると、`@appsec` 属性の下に脅威インテリジェンスデータが表示されます。`category` 属性と `security_activity` 属性の両方が設定されています。 -{{< img src="security/application_security/threats/threat_intel/threat_intel_appsec.png" alt="Example of the appsec attribute containing threat intelligence data">}} +{{< img src="security/application_security/threats/threat_intel/threat_intel_appsec.png" alt="脅威インテリジェンスデータを含む appsec 属性の例">}} -Under `@threat_intel.results` you can always see the full details of what was matched from which source: +`@threat_intel.results` の下には、どのソースから一致したかの詳細が常に表示されます。 - {{< img src="security/application_security/threats/threat_intel/threat_intel_generic.png" alt="Example of the threat_intel attribute containing threat intelligence data">}} +{{< img src="security/application_security/threats/threat_intel/threat_intel_generic.png" alt="脅威インテリジェンスデータを含む threat_intel 属性の例">}} ## その他の参考資料 diff --git a/content/ko/glossary/terms/baseline_mean.md b/content/ko/glossary/terms/baseline_mean.md new file mode 100644 index 0000000000000..723c1174c6be7 --- /dev/null +++ b/content/ko/glossary/terms/baseline_mean.md @@ -0,0 +1,8 @@ +--- +core_product: +- ci-cd +related_terms: +- 테스트 실행 +title: 기준 평균 +--- +Datadog CI 테스트 가시성에서 기준값이란 기본 브랜치에서 동일한 테스트의 평균 소요 시간으로, 마지막 주의 테스트 실행을 통해 계산됩니다. 자세한 내용은 설명서를 참조하세요. \ No newline at end of file diff --git a/content/ko/glossary/terms/baseline_standard_deviation.md b/content/ko/glossary/terms/baseline_standard_deviation.md new file mode 100644 index 0000000000000..0241d72f49faf --- /dev/null +++ b/content/ko/glossary/terms/baseline_standard_deviation.md @@ -0,0 +1,8 @@ +--- +core_product: +- ci-cd +related_terms: +- 테스트 실행 +title: 기준 표준 편차 +--- +Datadog CI 테스트 가시성에서 기준 표준 편차는 기본 브랜치에서 동일한 테스트에 대한 표준 편차를 의미합니다. 마지막 주의 테스트 실행을 통해 계산됩니다. 자세한 내용은 설명서를 참조하세요. \ No newline at end of file diff --git a/content/ko/glossary/terms/performance_regression_(Test Visibility).md b/content/ko/glossary/terms/performance_regression_(Test Visibility).md new file mode 100644 index 0000000000000..540c3cfd89782 --- /dev/null +++ b/content/ko/glossary/terms/performance_regression_(Test Visibility).md @@ -0,0 +1,9 @@ +--- +core_product: +- ci-cd +related_terms: +- 회귀 테스트 +- 테스트 서비스 +title: 성능 회귀 +--- +Datadog CI 테스트 가시성에서 성능 회귀란 테스트 서비스에 대해 측정 가능한 메트릭의 성능 저하를 의미합니다. 자세한 내용은 설명서를 참조하세요. \ No newline at end of file diff --git a/content/ko/glossary/terms/processing_pipeline_(Events).md b/content/ko/glossary/terms/processing_pipeline_(Events).md new file mode 100644 index 0000000000000..60677a123fa34 --- /dev/null +++ b/content/ko/glossary/terms/processing_pipeline_(Events).md @@ -0,0 +1,8 @@ +--- +related_terms: +- 프로세서 +- 파이프라인 +title: 프로세싱 파이프라인 +--- +Datadog 이벤트의 경우 프로세싱 파이프라인은 수집 시 이벤트 속성에 대한 일련의 데이터 구조화 작업을 가리킵니다. 사용자는 프로세싱 파이프라인을 설정하여 이벤트를 정규화하고 구체화시킬 수 있습니다. +자세한 내용은 설명서를 참조하세요. \ No newline at end of file diff --git a/content/ko/glossary/terms/test_duration.md b/content/ko/glossary/terms/test_duration.md new file mode 100644 index 0000000000000..5c72cb758b4b8 --- /dev/null +++ b/content/ko/glossary/terms/test_duration.md @@ -0,0 +1,9 @@ +--- +core_product: +- ci-cd +related_terms: +- 절대적 변화 +- 상대적 변화 +title: 테스트 기간 +--- +Datadog CI 테스트 가시성에서 테스트 기간은 CI 테스트가 완료되는 데 걸리는 시간입니다. 자세한 내용은 설명서를 참조하세요. \ No newline at end of file diff --git a/content/ko/glossary/terms/test_run.md b/content/ko/glossary/terms/test_run.md new file mode 100644 index 0000000000000..065181203ef43 --- /dev/null +++ b/content/ko/glossary/terms/test_run.md @@ -0,0 +1,7 @@ +--- +core_product: +- 신서틱 모니터링 +- ci-cd +title: 테스트 실행 +--- +Datadog 신서틱(Synthetic) 모니터링 및 CI 테스트 가시성에서 테스트 실행은 소프트웨어의 기능을 확인하기 위해 실행되는 일련의 테스트입니다. 브라우저 테스트 실행은 최대 25단계의 웹 트랜잭션 시뮬레이션을 의미합니다. 자세한 내용은 설명서를 참조하세요. \ No newline at end of file diff --git a/content/ko/observability_pipelines/legacy/reference/_index.md b/content/ko/observability_pipelines/legacy/reference/_index.md new file mode 100644 index 0000000000000..2a47c887f046f --- /dev/null +++ b/content/ko/observability_pipelines/legacy/reference/_index.md @@ -0,0 +1,12 @@ +--- +_build: + render: false +cascade: + disable_sidebar: false + disable_toc: false + type: 참조 +disable_sidebar: true +disable_toc: true +title: 참조 +type: 참조 +--- diff --git a/content/ko/observability_pipelines/legacy/reference/processing_language/functions.md b/content/ko/observability_pipelines/legacy/reference/processing_language/functions.md new file mode 100644 index 0000000000000..7651c4a7540f6 --- /dev/null +++ b/content/ko/observability_pipelines/legacy/reference/processing_language/functions.md @@ -0,0 +1,32 @@ +--- +aliases: +- /ko/observability_pipelines/reference/processing_language/functions/ +title: (레거시) 함수 +--- + +{{< site-region region="gov" >}} +
옵저버빌리티 파이프라인은 US1-FED Datadog 사이트에서 사용할 수 없습니다.
+{{< /site-region >}} + +Datadog 처리 언어(DPL) 또는 벡터 리매핑 언어(VRL)에는 데이터 변환을 위한 함수 기능이 내장되어 있습니다. + +{{< whatsnext desc="함수는 다음 카테고리로 분류됩니다." >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#array" >}}어레이{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#codec" >}}코덱{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#convert" >}}변환{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#cryptography" >}}암호화{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#debug" >}}디버깅{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#enrichment" >}}강화{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#ip" >}}IP{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#number" >}}숫자{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#object" >}}객체{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#parse" >}}파싱{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#path" >}}경로{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#random" >}}임의{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#string" >}}문자열{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#system" >}}시스템{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#timestamp" >}}타임스탬프{{< /nextlink >}} + {{< nextlink href="observability_pipelines/reference/processing_language/function/#type" >}}유형{{< /nextlink >}} +{{< /whatsnext >}} + +{{< vrl-functions >}} \ No newline at end of file diff --git a/content/ko/observability_pipelines/legacy/reference/sinks.md b/content/ko/observability_pipelines/legacy/reference/sinks.md new file mode 100644 index 0000000000000..5a9debcc62825 --- /dev/null +++ b/content/ko/observability_pipelines/legacy/reference/sinks.md @@ -0,0 +1,12 @@ +--- +aliases: +- /ko/observability_pipelines/reference/sinks/ +legacy: true +title: 싱크(Sink) +--- + +{{< site-region region="gov" >}} +
옵저버빌리티 파이프라인은 US1-FED Datadog 사이트에서 사용할 수 없습니다.
+{{< /site-region >}} + +싱크(Sink)는 이벤트의 목적지입니다. 각 싱크의 설계 및 전송 방법은 상호 작용하는 다운스트림 서비스 에 의해 결정됩니다. 예를 들어 `socket` 싱크는 개별 이벤트를 스트리밍하고 `aws_s3` 싱크는 버퍼로 데이터를 플러시합니다. \ No newline at end of file diff --git a/content/ko/observability_pipelines/legacy/reference/transforms.md b/content/ko/observability_pipelines/legacy/reference/transforms.md new file mode 100644 index 0000000000000..93462934105fa --- /dev/null +++ b/content/ko/observability_pipelines/legacy/reference/transforms.md @@ -0,0 +1,12 @@ +--- +aliases: +- /ko/observability_pipelines/reference/transforms/ +legacy: true +title: 변환 +--- + +{{< site-region region="gov" >}} +
옵저버빌리티 파이프라인은 US1-FED Datadog 사이트에서 사용할 수 없습니다.
+{{< /site-region >}} + +변환은 데이터를 파싱, 구조화 및 보강할 수 있도록 해줍니다. 파이프라인에서 여러 변환을 사용할 수 있습니다. \ No newline at end of file diff --git a/content/ko/opentelemetry/integrations/kafka_metrics.md b/content/ko/opentelemetry/integrations/kafka_metrics.md new file mode 100644 index 0000000000000..83f31a8eed0e7 --- /dev/null +++ b/content/ko/opentelemetry/integrations/kafka_metrics.md @@ -0,0 +1,305 @@ +--- +further_reading: +- link: /opentelemetry/collector_exporter/ + tag: 설명서 + text: 오픈 텔레메트리 설정 컬렉터(Collector) +title: Kafka 메트릭 +--- + +
+OTel Kafka 메트릭 리매핑은 공개 알파 버전입니다. 컬렉터(Collector) 0.93.0 이상 버전에서 사용할 수 있습니다. 이와 관련된 피드백이 있으면 계정 팀에 연락하여 의견을 제시해 주세요. +
+ + +## 개요 + +{{< img src="/opentelemetry/collector_exporter/kafka_metrics.png" alt="OOTB Kafka 대시보드의 OpenTelemetry Kafka 메트릭" style="width:100%;" >}} + +Kafka카 메트릭 수신기][1], [JMX 수신기][2]/ [JMX 메트릭 수집기][3]를 통해 Kafka 메트릭를 수집하고 즉시 사용 가능한 [Kafka 대시보드][7], "Kafka, Zookeeper 및 Kafka 소비자 개요"에 액세스할 수 있습니다. + +JMX 리시버][2]와 [JMX 메트릭 개더][3]를 대체품으로 고려해야 한다는 점에 유의하세요. 이들은 동일한 메트릭 세트를 수집합니다([JMX 수신기][2]는 [JMX 메트릭 수집기][3]를 실행). + + +## Kafka 메트릭 수신기 + +{{< tabs >}} +{{% tab "Host" %}} + +```yaml +receivers: + kafkametrics: + brokers: "${env:KAFKA_BROKER_ADDRESS}" + protocol_version: 2.0.0 + scrapers: + - brokers + - topics + - consumers +``` + +{{% /tab %}} + +{{% tab "Kubernetes" %}} + +Kafka 메트릭 수신기는 단일 복제본이 있는 `deployment` 모드의 컬렉터(Collector) 에서 사용해야 합니다. 이렇게 하면 동일한 메트릭이 여러 번 수집되지 않습니다. 그런 다음 배포 모드의 컬렉터는 Datadog 내보내기를 활용하여 메트릭을 Datadog로 직접 내보내거나 OTLP 내보내기를 활용하여 메트릭을 다른 컬렉터 인스턴스로 전달할 수 있습니다. + +`values.yaml` 에 다음 줄을 추가합니다: +```yaml +mode: deployment +``` + +컬렉터(Collector) 설정 에 다음을 추가합니다: + +```yaml +receivers: + kafkametrics: + brokers: ${env:KAFKA_BROKER_ADDRESS} + protocol_version: 2.0.0 + scrapers: + - brokers + - topics + - consumers +``` + +{{% /tab %}} + +{{< /tabs >}} + +## JMX 수신기 + +{{< tabs >}} +{{% tab "Host" %}} + +JMX 수신기는 다음 요구 사항을 포함합니다. +- JRE는 컬렉터(Collector)가 실행되는 호스팅에서 사용할 수 있습니다. +- JMX 메트릭 Gatherer JAR은 컬렉터(Collector)를 실행하는 호스트에서 사용할 수 있으며, [opentelemetry-java-contrib releases page][1]에서 최신 릴리스인 JMX 메트릭 Gatherer JAR을 다운로드할 수 있습니다. + +컬렉터(Collector) 설정 에 다음을 추가합니다: + +```yaml +receivers: + jmx: + jar_path: /path/to/opentelemetry-jmx-metrics.jar + endpoint: ${env:KAFKA_BROKER_JMX_ADDRESS} + target_system: kafka,jvm + jmx/consumer: + jar_path: /path/to/opentelemetry-jmx-metrics.jar + endpoint: ${env:KAFKA_CONSUMER_JMX_ADDRESS} + target_system: kafka-consumer + jmx/producer: + jar_path: /path/to/opentelemetry-jmx-metrics.jar + endpoint: ${env:KAFKA_PRODUCER_JMX_ADDRESS} + target_system: kafka-producer +``` + +[1]: https://github.com/open-telemetry/opentelemetry-java-contrib/releases + +{{% /tab %}} + +{{% tab "Kubernetes" %}} + +JMX 수신기는 단일 복제본이 있는 `deployment` 모드의 컬렉터에서 사용해야 합니다. 이렇게 하면 동일한 메트릭 이 여러 번 수집되지 않습니다. 그런 다음 배포 모드의 컬렉터는 Datadog 내보내기를 활용하여 메트릭을 Datadog 로 직접 내보내거나 OTLP 내보내기를 활용하여 메트릭을 다른 컬렉터(Collector) 인스턴스로 전달할 수 있습니다. + +JMX 수신기는 다음 요구 사항을 포함합니다. +- JRE는 컬렉터가 실행되는 호스트에서 사용할 수 있습니다. +- JMX 메트릭 Gatherer JAR은 컬렉터를 실행하는 호스트에서 사용할 수 있으며, 최신 버전의 JMX 메트릭 Gatherer JAR은 [여기][1]에서 다운로드할 수 있습니다. + +OTel 컬렉터 기본 이미지는 위의 요구 사항을 충족하지 않으므로 커스텀 이미지를 빌드해야 합니다. 컬렉터 바이너리, JRE 및 JMX 메트릭 수집기 항아리가 포함된 예제 이미지는 아래 도커 파일을 참조하세요. + +Dockerfile: +```Dockerfile +FROM alpine:latest as prep + +# OpenTelemetry 컬렉터 바이너리 +ARG OTEL_VERSION=0.92.0 +ARG TARGETARCH=linux_amd64 +ADD "https://github.com/open-telemetry/opentelemetry-collector-releases/releases/download/v${OTEL_VERSION}/otelcol-contrib_${OTEL_VERSION}_${TARGETARCH}.tar.gz" /otelcontribcol +RUN tar -zxvf /otelcontribcol + +# JMX 메트릭 Gatherer Jar +ARG JMX_GATHERER_JAR_VERSION=1.27.0 +ADD https://github.com/open-telemetry/opentelemetry-java-contrib/releases/download/v${JMX_GATHERER_JAR_VERSION}/opentelemetry-jmx-metrics.jar /opt/opentelemetry-jmx-metrics.jar +# nonroot user id (https://groups.google.com/g/distroless-users/c/-DpzCr7xRDY/m/eQqJmJroCgAJ) +ARG USER_UID=65532 +RUN chown ${USER_UID} /opt/opentelemetry-jmx-metrics.jar + + +FROM gcr.io/distroless/java17-debian11:nonroot + +COPY --from=prep /opt/opentelemetry-jmx-metrics.jar /opt/opentelemetry-jmx-metrics.jar +COPY --from=prep /otelcol-contrib /otelcol-contrib + +EXPOSE 4317 55680 55679 +ENTRYPOINT ["/otelcol-contrib"] +CMD ["--config", "/etc/otelcol-contrib/config.yaml"] +``` + +`values.yaml` 에 다음 줄을 추가합니다: +```yaml +mode: deployment +``` + +컬렉터(Collector) 설정 에 다음을 추가합니다: + +```yaml +receivers: + jmx: + jar_path: /path/to/opentelemetry-jmx-metrics.jar + endpoint: ${env:KAFKA_BROKER_JMX_ADDRESS} + target_system: kafka,jvm + jmx/consumer: + jar_path: /path/to/opentelemetry-jmx-metrics.jar + endpoint: ${env:KAFKA_CONSUMER_JMX_ADDRESS} + target_system: kafka-consumer + jmx/producer: + jar_path: /path/to/opentelemetry-jmx-metrics.jar + endpoint: ${env:KAFKA_PRODUCER_JMX_ADDRESS} + target_system: kafka-producer +``` + +[1]: https://github.com/open-telemetry/opentelemetry-java-contrib/releases + + +{{% /tab %}} + +{{< /tabs >}} + + +## JMX 메트릭 수집기 + +{{< tabs >}} +{{% tab "Host" %}} + +JMX 메트릭 수집기는 uber jar로 실행하고 명령줄에서 속성을 사용하여 설정하도록 되어 있습니다. + +컬렉터(Collector)를 실행하는 호스트에서 JRE를 사용할 수 있는지 확인하세요. 그렇지 않은 경우 다운로드하세요. +``` +apt-get update && \ +apt-get -y install default-jre-headless +``` + +이 작업을 완료한 후에는 최신 버전의 JMX 메트릭 Gatherer JAR[여기][1]을 다운로드하고 실행합니다: +``` +// Kafka 브로커 +java -jar -Dotel.jmx.service.url=service:jmx:rmi:///jndi/rmi://{KAFKA_BROKER_JMX_ADDRESS}/jmxrmi \ -Dotel.jmx.target.system=kafka,jvm \ +-Dotel.metrics.exporter=otlp \ +-Dotel.exporter.otlp.endpoint=http://localhost:4317 \ +-jar /path/to/opentelemetry-jmx-metrics.jar + +// Kafka 생산자 +java -jar -Dotel.jmx.service.url=service:jmx:rmi:///jndi/rmi://{KAFKA_PRODUCER_JMX_ADDRESS}/jmxrmi \ -Dotel.jmx.target.system=kafka-producer \ +-Dotel.metrics.exporter=otlp \ +-Dotel.exporter.otlp.endpoint=http://localhost:4317 \ +-jar /path/to/opentelemetry-jmx-metrics.jar + +// Kafka 소비자 +java -jar -Dotel.jmx.service.url=service:jmx:rmi:///jndi/rmi://{KAFKA_CONSUMER_JMX_ADDRESS}/jmxrmi \ -Dotel.jmx.target.system=kafka-consumer \ +-Dotel.metrics.exporter=otlp \ +-Dotel.exporter.otlp.endpoint=http://localhost:4317 \ +-jar /path/to/opentelemetry-jmx-metrics.jar +``` + +[1]: https://github.com/open-telemetry/opentelemetry-java-contrib/releases + +{{% /tab %}} + +{{% tab "Kubernetes" %}} + +JMX 메트릭 수집기는 uber jar로 실행하고 명령줄에서 속성을 사용하여 설정하도록 되어 있습니다. + +쿠버네티스(Kubernetes)에 배포하려면 JRE와 JMX 메트릭 Gatherer Jar가 포함된 이미지를 빌드해야 합니다. JRE와 JMX 메트릭 Gatherer Jar가 포함된 이미지 예시는 아래 도커 파일을 참조하세요. + +Dockerfile: +```Dockerfile +FROM alpine:latest as prep + +# JMX 메트릭 Gatherer Jar +ARG JMX_GATHERER_JAR_VERSION=1.27.0 +ADD https://github.com/open-telemetry/opentelemetry-java-contrib/releases/download/v${JMX_GATHERER_JAR_VERSION}/opentelemetry-jmx-metrics.jar /opt/opentelemetry-jmx-metrics.jar +# nonroot user id (https://groups.google.com/g/distroless-users/c/-DpzCr7xRDY/m/eQqJmJroCgAJ) +ARG USER_UID=65532 +RUN chown ${USER_UID} /opt/opentelemetry-jmx-metrics.jar + +FROM gcr.io/distroless/java17-debian11:nonroot + +COPY --from=prep /opt/opentelemetry-jmx-metrics.jar /opt/opentelemetry-jmx-metrics.jar + +EXPOSE 4317 55680 55679 +ENTRYPOINT ["java"] +CMD ["-Dotel.jmx.service.url=service:jmx:rmi:///jndi/rmi://kafka:1099/jmxrmi", \ +"-Dotel.jmx.target.system=kafka,jvm", \ +"-Dotel.metrics.exporter=otlp", \ +"-Dotel.exporter.otlp.endpoint=http://otelcol:4317", \ +"-jar", \ +"/opt/opentelemetry-jmx-metrics.jar"] +``` +{{% /tab %}} + +{{< /tabs >}} + +## 로그 수집 + +[OpenTelemetry 컬렉터 로그 수집][4]을 참조하여 로그를 수집하는 방법에 대한 지침을 확인하세요, + +즉시 사용 가능한 Kafka 대시보드에 표시하려면 Kafka 로그에 `source:kafka` 태그를 지정해야 합니다. 이렇게 하려면 속성 프로세서를 사용하세요. + +```yaml +processors: + attributes: + actions: + - key: ddtags + value: "source:kafka" + action: insert +``` + +이 속성이 Kafka 로그에만 추가되도록 하려면 속성 프로세서의 [포함/제외 필터링][8]을 사용하세요. + +## 수집한 데이터 + +수집된 카프카 메트릭에 대한 정보는 [OpenTelemetry 메트릭 매핑][9]을 참조하세요. + + + +## 전체 예제 설정 + +Datadog 내보내기를 사용한 전체 작업 예제 설정은 [`kafka.yaml`][5]를 참조하세요. + +## 로깅 출력 예시 + +``` +Resource SchemaURL: https://opentelemetry.io/schemas/1.20.0 +Resource attributes: + -> service.name: Str(unknown_service:java) + -> telemetry.sdk.language: Str(java) + -> telemetry.sdk.name: Str(opentelemetry) + -> telemetry.sdk.version: Str(1.27.0) +ScopeMetrics #0 +ScopeMetrics SchemaURL: +InstrumentationScope io.opentelemetry.contrib.jmxmetrics 1.27.0-alpha +Metric #0 +Descriptor: + -> Name: kafka.message.count + -> Description: The number of messages received by the broker + -> Unit: {messages} + -> DataType: Sum + -> IsMonotonic: true + -> AggregationTemporality: Cumulative +NumberDataPoints #0 +StartTimestamp: 2024-01-22 15:50:24.212 +0000 UTC +Timestamp: 2024-01-22 15:51:24.218 +0000 UTC +Value: 25 +``` + +## 앱 예시 + +이 문서에서 설명하는 설정을 보여주는 다음 [예제 애플리케이션][6]을 참조하세요. 이 예제 애플리케이션은 생산자, 소비자, 브로커, 주키퍼(zookeeper) 인스턴스로 구성되어 있습니다. 이 예시에서는 Kafka 메트릭 수신기, JMX 수신기 및/또는 JMX 메트릭 수집기를 사용하는 것을 보여줍니다. + + +[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/receiver/kafkametricsreceiver +[2]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/jmxreceiver +[3]: https://github.com/open-telemetry/opentelemetry-java-contrib/blob/main/jmx-metrics +[4]: /ko/opentelemetry/collector_exporter/log_collection +[5]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/kafka.yaml +[6]: https://github.com/DataDog/opentelemetry-examples/tree/main/apps/kafka-metrics +[7]: https://app.datadoghq.com/dash/integration/50/kafka-zookeeper-and-kafka-consumer-overview +[8]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/processor/attributesprocessor/README.md#includeexclude-filtering +[9]: /ko/opentelemetry/guide/metrics_mapping/#kafka-metrics \ No newline at end of file diff --git a/content/ko/opentelemetry/interoperability/api_support.md b/content/ko/opentelemetry/interoperability/api_support.md new file mode 100644 index 0000000000000..64c139a54b981 --- /dev/null +++ b/content/ko/opentelemetry/interoperability/api_support.md @@ -0,0 +1,27 @@ +--- +algolia: + tags: + - otel 커스텀 계측 +further_reading: +- link: tracing/guide/instrument_custom_method + text: 커스텀 메서드 계측을 통해 비즈니스 논리를 더 깊게 가시화하기 +- link: tracing/connect_logs_and_traces + text: 로그 및 트레이스를 서로 연결 +- link: tracing/visualization/ + text: 서비스, 리소스, 트레이스 탐색 +- link: https://www.datadoghq.com/blog/opentelemetry-instrumentation/ + text: Datadog 및 OpenTelemetry 이니셔티브에 대해 자세히 알아보기 +title: OpenTelemetry API Support +--- + +Datadog 추적 라이브러리는 코드 계측을 위한 OpenTelemetry API의 구현을 제공합니다. 즉, 모든 서비스에 대해 벤더 중립적 계측을 유지하면서 Datadog의 네이티브 구현, 기능 및 제품을 계속 활용할 수 있습니다. Datadog 스타일 스팬(span) 및 트레이스를 생성하여 Datadog 추적 라이브러리로 프로세싱한 후 Datadog로 전송할 수 있습니다. + +자세히 알아보려면 해당 언어의 링크를 클릭하세요: + +{{< partial name="apm/otel-instrumentation.html" >}} + +
+ +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ko/real_user_monitoring/mobile_and_tv_monitoring/data_collected/reactnative.md b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/data_collected/reactnative.md new file mode 100644 index 0000000000000..c43b09a9e9347 --- /dev/null +++ b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/data_collected/reactnative.md @@ -0,0 +1,34 @@ +--- +aliases: +- /ko/real_user_monitoring/reactnative/data_collected/ +code_lang: 리액티브 +code_lang_weight: 40 +description: React Native 모니터링이 수집한 데이터에 대해 알아봅니다. +further_reading: +- link: https://github.com/DataDog/dd-sdk-reactnative + tag: 소스 코드 + text: dd-sdk-reactnative를 위한 소스 코드 +- link: real_user_monitoring/explorer/ + tag: 설명서 + text: RUM 데이터를 탐색하는 방법 알아보기 +- link: real_user_monitoring/guide/monitor-hybrid-react-native-applications + tag: 설명서 + text: 하이브리드 React Native 애플리케이션 모니터링 +title: 수집된 RUM React Native 데이터 +type: multi-code-lang +--- +## 개요 + +RUM용 Datadog React Native SDK는 연결된 메트릭 및 속성이 있는 이벤트를 생성합니다. 메트릭은 이벤트와 관련된 측정에 사용할 수 있는 정량화 가능한 값입니다. 속성은 RUM 탐색기에서 메트릭 데이터를 분류(그룹화)하는 데 사용되는 정량화할 수 없는 값입니다. + +대부분의 React Native 모니터링 데이터는 RUM용 기본 Datadog iOS 및 Android SDK에서 수집되며 동일한 기간 동안 유지됩니다. + +* iOS 이벤트별 메트릭 및 속성은 [수집된 RUM iOS 데이터][1]를 참조하세요. +* Android 이벤트별 메트릭 및 속성은 [수집된 RUM Android 데이터][2]를 참조하세요. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/real_user_monitoring/ios/data_collected/#event-specific-metrics-and-attributes +[2]: /ko/real_user_monitoring/android/data_collected/#event-specific-metrics-and-attributes \ No newline at end of file diff --git a/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md new file mode 100644 index 0000000000000..1569f3a26c05f --- /dev/null +++ b/content/ko/real_user_monitoring/mobile_and_tv_monitoring/setup/flutter.md @@ -0,0 +1,370 @@ +--- +aliases: +- /ko/real_user_monitoring/flutter/ +- /ko/real_user_monitoring/flutter/setup +code_lang: flutter +code_lang_weight: 30 +description: Flutter 프로젝트에서 RUM 데이터를 수집합니다. +further_reading: +- link: /real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/flutter + tag: 설명서 + text: RUM Flutter 고급 설정 +- link: https://github.com/DataDog/dd-sdk-flutter + tag: 소스 코드 + text: dd-sdk-flutter의 소스 코드 +- link: real_user_monitoring/explorer/ + tag: 설명서 + text: RUM 데이터를 탐색하는 방법 알아보기 +- link: https://www.datadoghq.com/blog/monitor-flutter-application-performance-with-mobile-rum/ + tag: 블로그 + text: Datadog 모바일 RUM으로 Flutte 애플리케이션 성능 모니터링 +title: RUM Flutter 모니터링 설정 +type: multi-code-lang +--- +## 개요 + +Datadog 실제 사용자 모니터링(RUM)을 사용하면 애플리케이션 개별 사용자의 실시간 성능 및 사용자 여정을 시각화하고 분석할 수 있습니다. + +## 설정 + +### UI에서 애플리케이션 세부 정보를 지정합니다. + +1. Datadog에서 [**디지털 경험** > **애플리케이션 추가**][1]로 이동합니다. +2. `Flutter`를 애플리케이션 유형으로 선택합니다. +3. 고유한 Datadog 애플리케이션 ID 및 클라이언트 토큰을 생성하기 위한 애플리케이션 이름을 제공합니다. +4. 클라이언트 IP 또는 지리적 위치 데이터에 대한 자동 사용자 데이터 수집을 비활성화하려면 해당 설정의 확인란을 선택 취소합니다. 자세한 내용은 [RUM Flutter 데이터 수집][7]을 참조하세요. + + {{< img src="real_user_monitoring/flutter/flutter-new-application.png" alt="Datadog에서 Flutter용 RUM 애플리케이션 만들기" style="width:90%;">}} + +데이터 보안을 위해 클라이언트 토큰을 사용해야 합니다. 클라이언트 토큰 설정에 대한 자세한 내용은 [클라이언트 토큰 설명서][2]를 참조하세요. + +### 애플리케이션의 계측 + +먼저 각 플랫폼에 맞게 환경을 올바르게 설정했는지 확인합니다. + +
+Datadog는 Flutter 3.0 이상용 iOS 및 Android용 Flutter 모니터링을 지원합니다. +
+ +Datadog는 공식적으로 Flutter Web을 지원하지 않지만, 현재 모바일 앱용 Flutter SDK를 사용하면 모니터링에서 일부 기능을 바로 사용할 수 있습니다. 다음은 알려진 제한 사항입니다. + * Flutter에서 보고된 모든 작업에는 `custom` 유형이 레이블로 지정됩니다. + * 장기 실행 작업(`startAction`/`stopAction`)은 지원되지 않습니다. + * RUM 리소스 수동 보고(`startResource`/`stopResource`)는 지원되지 않습니다. + * 이벤트 매퍼는 현재 지원되지 않습니다. + * 태그는 현재 지원되지 않습니다. + * `addUserExtraInfo`는 지원되지 않습니다. + * `stopSession`는 지원되지 않습니다. + +Flutter Web 지원은 계획되어 있지 않지만 Datadog의 우선 순위는 종종 사용자의 피드백에 따라 재평가됩니다. Flutter Web 앱이 있고 Datadog RUM을 사용하여 모니터링 성능을 개선하고 싶다면 고객 지원 팀에 연락하여 이 기능을 요청하세요. + +#### iOS + +`ios/Podfile` 에 있는 iOS 포드 파일에 `use_frameworks!` 이 참(Flutter의 기본값)으로 설정되어 있어야 하며 대상 iOS 버전을 11.0 이상으로 설정해야 합니다. + +이 제약 조건은 일반적으로 Podfile의 맨 윗줄에 주석 처리되어 있으며 다음과 같이 기술됩니다. + +```ruby +platform :ios, '11.0' +``` + +`11.0`은 지원하려는 iOS의 최소 버전이 11.0 이상이면 자유롭게 바꿀 수 있습니다. + +#### Android + +Android의 경우 `minSdkVersion` 버전이 21 이상이어야 하며, Kotlin을 사용하는 경우 버전이 1.8.0 이상이어야 합니다. 이러한 제약 조건은 일반적으로 `android/app/build.gradle` 파일에 보관됩니다. + +### Web + +웹의 경우 `head` 태그 , **{{}}** 사이트의 경우, `index.html`에 다음을 추가합니다. +{{< site-region region="us" >}} +```html + + +``` +{{}} +{{< site-region region="ap1" >}} +```html + + +``` +{{}} +{{< site-region region="eu" >}} +```html + + +``` +{{}} +{{< site-region region="us3" >}} +```html + + +``` +{{}} +{{< site-region region="us5" >}} +```html + + +``` +{{}} +{{< site-region region="gov" >}} +```html + + +``` +{{}} + +그러면 CDN으로 제공되는 Datadog Browser SDKs for Logs 및 RUM이 로드됩니다. 동기식 CDN 제공 버전의 Browser SDK는 Datadog Flutter Plugin이 지원하는 유일한 버전입니다. + +#### 플러그인 추가 + +1. `pubspec.yaml` 파일에 다음을 추가합니다: + + ```yaml + dependencies: + datadog_flutter_plugin: ^2.0.0 + ``` +2. 다음 스니펫을 사용하여 각 Datadog 기능(예: Logs 또는 RUM)에 대한 구성 개체를 만듭니다. 특정 기능에 대한 구성을 전달하지 않으면 해당 기능이 비활성화됩니다. + + ```dart + // Determine the user's consent to be tracked + final trackingConsent = ... + final configuration = DatadogConfiguration( + clientToken: '', + env: '', + site: DatadogSite.us1, + nativeCrashReportEnabled: true, + loggingConfiguration: DatadogLoggingConfiguration(), + rumConfiguration: DatadogRumConfiguration( + applicationId: '', + ) + ); + ``` + +사용 가능한 설정 옵션에 대한 자세한 내용은 [DatadogConfiguration 개체 문서][3]를 참조하세요. + +데이터의 안전을 보장하려면 클라이언트 토큰을 사용해야 합니다. Datadog API 키를 사용하여 Datadog Flutter 플러그인을 설정할 수 없습니다. + +- RUM을 사용하는 경우 **클라이언트 토큰**과 **애플리케이션 ID**를 설정하세요. +- 로그만 사용하는 경우 라이브러리를 클라이언트 토큰으로 초기화합니다. + +## 애플리케이션 계측 + +### 라이브러리 초기화 + +`main.dart` 파일에서 두 가지 방법 중 하나를 사용하여 RUM을 초기화할 수 있습니다. + +1. `DatadogSdk.runApp`을 사용하면 [오류 추적][4]이 자동으로 설정됩니다. + + ```dart + await DatadogSdk.runApp(configuration, TrackingConsent.granted, () async { + runApp(const MyApp()); + }) + ``` + +2. 또는 수동으로 [오류 추적][4] 및 리소스 추적을 설정합니다. `DatadogSdk.runApp`는`WidgetsFlutterBinding.ensureInitialized`를 호출합니다. `DatadogSdk.runApp`을 사용하지 않을 경우 `DatadogSdk.instance.initialize`를 호출하기 전에 이 방법을 호출해야 합니다. + + ```dart + WidgetsFlutterBinding.ensureInitialized(); + final originalOnError = FlutterError.onError; + FlutterError.onError = (details) { + DatadogSdk.instance.rum?.handleFlutterError(details); + originalOnError?.call(details); + }; + final platformOriginalOnError = PlatformDispatcher.instance.onError; + PlatformDispatcher.instance.onError = (e, st) { + DatadogSdk.instance.rum?.addErrorInfo( + e.toString(), + RumErrorSource.source, + stackTrace: st, + ); + return platformOriginalOnError?.call(e, st) ?? false; + }; + await DatadogSdk.instance.initialize(configuration, TrackingConsent.granted); + runApp(const MyApp()); + ``` + +### RUM 세션 예시 + +애플리케이션이 Datadog RUM으로 전송하는 데이터를 제어하려면 Flutter RUM SDK를 초기화하는 동안 RUM 세션의 샘플링 속도를 0에서 100 사이의 백분율로 지정할 수 있습니다. 기본적으로 `sessionSamplingRate` 은 100으로 설정되어 있습니다(모든 세션 유지). + +예를 들어 세션의 50%만 유지하려면 다음을 사용합니다: + +```dart +final config = DatadogConfiguration( + // 다른 설정... + rumConfiguration: DatadogRumConfiguration( + applicationId: '', + sessionSamplingRate: 50.0, + ), +); +``` + +### 추적 동의 설정 + +GDPR 규정을 준수하려면 Datadog Flutter SDK는 초기화 시 `trackingConsent` 값을 요구합니다. + +다음 값 중 하나에 `trackingConsent`을 설정합니다: + +- `TrackingConsent.pending`: Datadog Flutter SDK는 데이터 수집 및 일괄 처리를 시작하지만 데이터를 Datadog으로 전송하지는 않습니다. 새로운 추적 동의 값이 일괄 처리된 데이터로 수행할 작업을 결정할 때까지 기다립니다. +- `TrackingConsent.granted`: Datadog Flutter SDK가 데이터 수집을 시작하여 Datadog로 전송합니다. +- `TrackingConsent.notGranted`: Datadog Flutter SDK는 데이터를 수집하지 않으므로 로그, 트레이스 또는 RUM 이벤트가 Datadog로 전송되지 않습니다. + +SDK가 초기화된 후 추적 동의 값을 변경하려면 `DatadogSdk.setTrackingConsent` API 호출을 사용하세요. + +SDK는 새 값에 따라 동작을 변경합니다. 예를 들어, 현재 추적 동의가 `TrackingConsent.pending`인 경우: + +- `TrackingConsent.granted`로 변경하면 SDK는 현재 및 이후의 모든 데이터를 Datadog로 전송합니다; +- `TrackingConsent.notGranted`로 변경하면 SDK는 현재 데이터를 모두 삭제하고 이후 데이터는 수집하지 않습니다. + +## 보기 자동 추적 + +### Flutter Navigator v1 + +Datadog Flutter 플러그인은 MaterialApp에서 `DatadogNavigationObserver`을 사용하여 명명된 경로를 자동으로 추적할 수 있습니다. + +```dart +MaterialApp( + home: HomeScreen(), + navigatorObservers: [ + DatadogNavigationObserver(DatadogSdk.instance), + ], +); +``` + +이는 이름이 지정된 경로를 사용하고 있거나 `PageRoute`의 `settings`파라미터에 이름을 제공한 경우에 작동합니다. + +이름이 지정된 경로를 사용하지 않는 경우 `DatadogNavigationObserverProvider` 위젯과 `DatadogRouteAwareMixin`을 함께 사용하여 RUM 보기를 자동으로 시작하고 중지할 수 있습니다.`DatadogRouteAwareMixin`를 사용하여 `initState`에서 `didPush`로 로직을 이동합니다. + +### Flutter Navigator v2 + +`MaterialApp.router`라는 생성자를 사용하는 Flutter Navigator v2.0을 사용하는 경우, 설정은 사용 중인 라우팅 미들웨어(있는 경우)에 따라 달라집니다. [`go_router`][11]는 Flutter Navigator v1과 동일한 옵저버 인터페이스를 사용하므로 `DatadogNavigationObserver`를 다른 옵저버에 파라미터를 `GoRouter`로 추가할 수 있습니다. + +```dart +final _router = GoRouter( + routes: [ + // 경로 정보는 여기에 + ], + observers: [ + DatadogNavigationObserver(datadogSdk: DatadogSdk.instance), + ], +); +MaterialApp.router( + routerConfig: _router, + // 남은 설정 +) +``` + +`go_router`이외의 라우터를 사용하는 예는 [고급 설정- 자동 보기 추적][12]을 참조하세요. + + +### 보기 이름 변경 + +모든 설정에서 [`viewInfoExtractor`][8] 콜백을 제공하여 보기 이름을 바꾸거나 커스텀 경로를 제공할 수 있습니다. 이 함수는 `defaultViewInfoExtractor`를 호출하여 옵저버의 기본 동작으로 되돌릴 수 있습니다. 예: + +```dart +RumViewInfo? infoExtractor(Route route) { + var name = route.settings.name; + if (name == 'my_named_route') { + return RumViewInfo( + name: 'MyDifferentName', + attributes: {'extra_attribute': 'attribute_value'}, + ); + } + + return defaultViewInfoExtractor(route); +} + +var observer = DatadogNavigationObserver( + datadogSdk: DatadogSdk.instance, + viewInfoExtractor: infoExtractor, +); +``` + +## 리소스 자동 추적 + +[Datadog Tracking HTTP Client][5] 패키지를 사용하여 RUM 보기에서 자동으로 리소스 및 HTTP 호출을 추적할 수 있습니다. + +패키지를 `pubspec.yaml`에 추가하고 초기화 파일에 다음을 추가합니다: + +```dart +final configuration = DatadogConfiguration( + // 설정 + firstPartyHosts: ['example.com'], +)..enableHttpTracking() +``` + +**참고**: Datadog HTTP 클라이언트 추적은 [`HttpOverrides.global`][9]를 수정합니다. 자체 커스텀 `HttpOverrides`를 사용하는 경우 [`DatadogHttpOverrides`][10]에서 상속해야 할 수도 있습니다. 이 경우에는 `enableHttpTracking`를 호출할 필요가 없습니다. `datadog_tracking_http_client` >= 1.3 버전에서는 `HttpOverrides.current`의 값을 확인하고 클라이언트 생성에 사용하므로 Datadog을 초기화하기 전에 `HttpOverrides.global`만 초기화하면 됩니다. + +Datadog [분산 추적][6]을 사용하려면 설정 개체의 `DatadogConfiguration.firstPartyHosts` 속성을 분산 추적을 지원하는 도메인으로 설정해야 합니다. `DatadogRumConfiguration`에서 `tracingSamplingRate`을 설정하여 분산 추적의 샘플링 속도를 수정할 수도 있습니다. + +- `firstPartyHosts`는 와일드카드를 허용하지 않지만 지정된 도메인에 대해 모든 하위 도메인과 일치합니다. 예를 들어, `api.example.com`는 `news.example.com`가 아닌 `staging.api.example.com` 및 `prod.api.example.com`와 일치합니다. + +- `DatadogRumConfiguration.traceSampleRate`는 기본 샘플링 비율을 20%로 설정합니다. 모든 리소스 요청이 완전히 분산된 추적을 생성하도록 하려면 이 값을 `100.0`으로 설정합니다. + + +## 자동 작업 추적 + +`RumUserActionDetector`][13]을 사용하여 지정된 위젯 트리에서 발생하는 사용자 탭을 추적합니다. + +```dart +RumUserActionDetector( + rum: DatadogSdk.instance.rum, + child: Scaffold( + appBar: AppBar( + title: const Text('RUM'), + ), + body: // 나머지 애플리케이션 + ), +); +``` + +`RumUserActionDetector`는 트리에서 발생하는 탭 사용자 동작을 자동으로 감지하여 RUM으로 전송합니다. 이는 여러 일반적인 Flutter 위젯과의 상호작용을 감지합니다. + +대부분의 버튼 유형에서 감지기는 `Text` 위젯 하위 항목을 찾고, 이 하위 항목을 동작 설명에 사용합니다. 다른 경우에는 `Semantics` 객체 하위 항목 또는 `Icon.semanticsLabel` 속성이 설정된 `Icon`을 찾습니다. + +또는 트리의 시맨틱을 변경하지 않고 하위 트리에서 감지된 사용자 작업을 보고할 때 제공된 설명을 사용하는 [`RumUserActionAnnotation`][14]로 위젯 트리를 묶을 수 있습니다. + +```dart +Container( + margin: const EdgeInsets.all(8), + child: RumUserActionAnnotation( + description: 'My Image Button', + child: InkWell( + onTap: onTap, + child: Column( + children: [ + FadeInImage.memoryNetwork( + placeholder: kTransparentImage, + image: image, + ), + Center( + child: Text( + text, + style: theme.textTheme.headlineSmall, + ), + ) + ], + ), + ), + ), +); +``` + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/rum/application/create +[2]: /ko/account_management/api-app-keys/#client-tokens +[3]: https://pub.dev/documentation/datadog_flutter_plugin/latest/datadog_flutter_plugin/DatadogConfiguration-class.html +[4]: /ko/real_user_monitoring/error_tracking/flutter +[5]: https://pub.dev/packages/datadog_tracking_http_client +[6]: /ko/serverless/distributed_tracing +[7]: /ko/real_user_monitoring/mobile_and_tv_monitoring/data_collected/flutter +[8]: https://pub.dev/documentation/datadog_flutter_plugin/latest/datadog_flutter_plugin/ViewInfoExtractor.html +[9]: https://api.flutter.dev/flutter/dart-io/HttpOverrides/current.html +[10]: https://pub.dev/documentation/datadog_tracking_http_client/latest/datadog_tracking_http_client/DatadogTrackingHttpOverrides-class.html +[11]: https://pub.dev/packages/go_router +[12]: /ko/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/flutter#automatic-view-tracking +[13]: https://pub.dev/documentation/datadog_flutter_plugin/latest/datadog_flutter_plugin/RumUserActionDetector-class.html +[14]: https://pub.dev/documentation/datadog_flutter_plugin/latest/datadog_flutter_plugin/RumUserActionAnnotation-class.html \ No newline at end of file diff --git a/content/ko/security/audit_trail.md b/content/ko/security/audit_trail.md new file mode 100644 index 0000000000000..d49867cfdd069 --- /dev/null +++ b/content/ko/security/audit_trail.md @@ -0,0 +1,42 @@ +--- +disable_toc: false +further_reading: +- link: /account_management/audit_trail/ + tag: 설명서 + text: Audit Trail에 대해 자세히 알아보기 +- link: /account_management/audit_trail/events/ + tag: 설명서 + text: 오딧 트레일 이벤트에 대해 알아보기 +products: +- icon: siem + name: 클라우드 SIEM + url: /security/cloud_siem/ +- icon: cloud-security-management + name: 클라우드 보안 관리 + url: /security/cloud_security_management/ +- icon: app-sec + name: 애플리케이션 보안 관리 + url: /security/application_security/ +title: Datadog 보안 이벤트 감사 +--- + +{{< product-availability >}} + +관리자 또는 보안 팀 구성원은 [감사 추적][1]을 사용하여 Datadog 보안에서 팀이 수행한 작업을 확인할 수 있습니다. 개개인은 자신의 작업을 확인할 수 있습니다. 보안 관리자 또는 InfoSec 팀의 경우, 감사 추적 이벤트를 통해 규정을 준수하고 Datadog 리소스 작업자, 작업 기록 및 시점을 확인하는 데 도움을 얻을 수 있습니다. + +Datadog 보안에서 수행한 작업으로 생성된 감사 로그를 보려면 Datadog의 [**감사 추적**][2] 페이지로 이동합니다. 다음 제품별 이벤트는 Datadog 보안에서 사용할 수 있습니다: + +## 클라우드 보안 플랫폼 + +{{% audit-trail-security-platform %}} + +## 애플리케이션 보안 관리 + +{{% audit-trail-asm %}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/account_management/audit_trail +[2]: https://app.datadoghq.com/audit-trail \ No newline at end of file diff --git a/content/ko/serverless/aws_lambda/opentelemetry.md b/content/ko/serverless/aws_lambda/opentelemetry.md new file mode 100644 index 0000000000000..0e490ffd6f8c4 --- /dev/null +++ b/content/ko/serverless/aws_lambda/opentelemetry.md @@ -0,0 +1,184 @@ +--- +further_reading: +- link: /opentelemetry/ + tag: 설명서 + text: Datadog의 OpenTelemetry +title: AWS Lambda 및 OpenTelemetry +--- + +[OpenTelemetry][1]는 오픈 소스 통합 가시성 프레임워크로, IT 팀에 원격 분석 데이터 수집 및 라우팅을 위한 표준화된 프로토콜과 도구를 제공합니다. + +이 페이지에서는 서버리스 모니터링 AWS Lambda에서 OpenTelemetry를 사용하는 방법에 대해 설명합니다. 서버리스 환경 이외에서 OpenTelemetry를 사용하는 방법을 포함한 자세한 내용은 [Datadog OpenTelemetry][2]를 참조하세요. + +## OpenTelemetry를 사용한 AWS Lambda 계측 + +OpenTelemetry를 사용하여 AWS Lambda 함수를 계측하고 데이터를 Datadog로 전송하는 여러 가지 방법이 있습니다. + +- [Datadog 트레이서](#opentelemetry-api-support-within-datadog-tracers)에서 OpenTelemetry API 지원(권장) +- [Datadog 람다 확장(#sdk)(베타)을 통해 모든 OpenTelemetry SDK에서 OpenTelemetry 트레이스 전송] + +### Datadog 추적기 내에서 OpenTelemetry API 지원 + +Datadog 설치 시 Datadog 람다 확장에 포함된 라이브러리 추적은 커스텀 스팬(span)과 트레이스 OpenTelemetry 계측 코드로 만든 프로세스 텔레메트리를 수신하여 Datadog로 전송합니다. + +예를 들어, 주요 목표가 이미 OpenTelemetry API 로 계측된 코드인 경우 이 접근 방식을 사용할 수 있습니다. 즉, 모든 서비스의 벤더 중립적 계측을 유지하면서 Datadog의 기본 구현, 태깅 및 기능을 계속 활용할 수 있습니다. + +OpenTelemetry API를 사용해 AWS Lambda를 계측하려면 Lambda 함수에서 환경 변수 `DD_TRACE_OTEL_ENABLED`를 `true`로 설정하고, 런타임 관련 지침은 [OpenTelemetry API를 사용한 커스텀 계측][3]을 참조하세요. + + +### Datadog 람다 확장 프로그램{#sdk}을 통해 OpenTelemetry SDK에서 OpenTelemetry 트레이스 전송하세요. + +
이 기능은 베타 버전입니다.
+ +이 접근 방식은 [Datadog 에이전트 ][4]의 OLTP 수집과 유사합니다. 런타임에 추적 지원을 사용할 수 없는 상황(예: Rust 또는 PHP)에서는 권장됩니다. + +1. OpenTelemetry에 스팬을 Datadog Lambda 확장 프로그램으로 내보낼 것을 지시합니다. 그런 다음 AWS Lambda에 OpenTelemetry 계측을 추가합니다. + + {{< tabs >}} + {{% tab "Python" %}} + ```py + from opentelemetry.instrumentation.botocore import BotocoreInstrumentor + from opentelemetry.instrumentation.aws_lambda import AwsLambdaInstrumentor + from opentelemetry import trace + from opentelemetry.sdk.trace import TracerProvider + from opentelemetry.exporter.otlp.trace_exporter import OTLPExporter + from opentelemetry.sdk.trace.export import SimpleSpanProcessor + from opentelemetry.resource import Resource + from opentelemetry.semconv.resource import ( + SERVICE_NAME, + SemanticResourceAttributes, + ) + + # Create a TracerProvider + tracer_provider = TracerProvider(resource=Resource.create({SERVICE_NAME: })) + + # Add a span processor with an OTLP exporter + tracer_provider.add_span_processor( + SimpleSpanProcessor( + OTLPExporter(endpoint="http://localhost:4318/v1/traces") + ) + ) + + # Register the provider + trace.set_tracer_provider(tracer_provider) + + # Instrument AWS SDK and AWS Lambda + BotocoreInstrumentor().instrument(tracer_provider=tracer_provider) + AwsLambdaInstrumentor().instrument(tracer_provider=tracer_provider) + ``` + {{% /tab %}} + {{% tab "Node.js" %}} + ```js + // instrument.js + + const { NodeTracerProvider } = require("@opentelemetry/sdk-trace-node"); + const { OTLPTraceExporter } = require('@opentelemetry/exporter-trace-otlp-http'); + const { Resource } = require('@opentelemetry/resources'); + const { SemanticResourceAttributes } = require('@opentelemetry/semantic-conventions'); + const { SimpleSpanProcessor } = require('@opentelemetry/sdk-trace-base'); + const provider = new NodeTracerProvider({ + resource: new Resource({ + [SemanticResourceAttributes.SERVICE_NAME ]: 'rey-app-otlp-dev-node', + }) + }); + 공급자.addSpanProcessor( + 새로운 SimpleSpanProcessor( + 새로운 OTLPTraceExporter( + { url: 'http://localhost:4318/v1/트레이스' }, + ), + ), + ); + 공급자.register(); + + const { AwsInstrumentation } = require('@opentelemetry/계측-AWS-sdk'); + const { AwsLambdaInstrumentation } = require('@opentelemetry/계측-AWS-lambda'); + const { registerInstrumentations } = require('@opentelemetry/계측'); + + registerInstrumentations({ + 계측: [ + 새로운 AwsInstrumentation({ + suppressInternalInstrumentation: true, + }), + 새로운 AwsLambdaInstrumentation({ + disableAwsContextPropagation: true, + }), + ], + }); + + ``` + {{% /tab %}} + {{< /tabs >}} + +1. `serverless.yml` 을 수정하여 런타임에 계측 을 적용하고, Datadog 확장 v53+ 을 추가하고, Datadog 확장에 환경 변수 `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT` 를 `localhost:4318` (HTTP 용) 또는 `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT` 를 `localhost:4317` (gRPC 용)으로 설정하여 OpenTelemetry 를 활성화합니다. Datadog 추적 레이어는 추가하지 마세요. + + {{< tabs >}} + {{% tab Python %}} + ```yaml + 서비스: + + 공급자: + name: AWS + region: + 런타임: python3.8 # 또는 사용 중인 파이썬(Python) 버전 + 환경: + DD_API_KEY: ${env:DD_API_KEY} + DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT: localhost:4318 + 레이어 + - arn:AWS:lambda:sa-east-1:464622532012:layer:Datadog-Extension:53 + + 기능/함수: + 파이썬(Python): + 핸들러: 핸들러.핸들러 + 환경: + INSTRUMENTATION_FLAG: true + ``` + + 그런 다음 파이썬(Python) 코드를 적절히 업데이트합니다. 예를 들어 `handler.py`: + + ```py + import os + + def 핸들러(이벤트, 컨텍스트): + if os.environ.get('INSTRUMENTATION_FLAG') == 'true': + # 여기에 계측 로직을 수행합니다. + print("계측 is enabled") + + # 여기에 일반적인 핸들러 로직을 수행합니다. + print(" 이벤트 처리 중") + ``` + {{% /tabs %}} + {{% tab "Node.js" %}} + ```yaml + # 서버리스.yml + + 서비스: + + 공급자: + name: AWS + region: + 런타임: nodejs18.x # 또는 사용 중인 Node.js 버전 + 환경: + DD_API_KEY: ${env:DD_API_KEY} + DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT: localhost:4318 + 레이어 + - arn:AWS:lambda:sa-east-1:464622532012:layer:Datadog-Extension:53 + + 기능/함수: + node: + 핸들러: 핸들러.핸들러 + 환경: + NODE_OPTIONS: --require 계측하다 + ``` + {{% /tab %}} + {{< /tabs >}} + +1. 배포. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://opentelemetry.io/ +[2]: /ko/opentelemetry +[3]: /ko/tracing/trace_collection/otel_instrumentation/ +[4]: /ko/opentelemetry/interoperability/otlp_ingest_in_the_agent/?tab=host \ No newline at end of file diff --git a/content/ko/service_catalog/import_entries_dd.md b/content/ko/service_catalog/import_entries_dd.md deleted file mode 100644 index ec63171ac01df..0000000000000 --- a/content/ko/service_catalog/import_entries_dd.md +++ /dev/null @@ -1,46 +0,0 @@ ---- -further_reading: -- link: /tracing/service_catalog/adding_metadata - tag: 설명서 - text: 메타데이터 추가하기 -- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml - tag: 외부 사이트 - text: Terraform을 사용하여 서비스 정의 생성 및 관리 -- link: /api/latest/service-definition/ - tag: API - text: 서비스 정의 API에 대해 자세히 알아보기 -- link: /integrations/github - tag: 설명서 - text: GitHub 통합 알아보기 -- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/ - tag: 블로그 - text: Backstage YAML 파일을 Datadog으로 가져오기 -title: Datadog 원격 측정에서 엔트리 가져오기 ---- - -## 다른 Datadog 원격 측정을 통한 수동 서비스 검색 - -인프라스트럭처 메트릭과 같은 기존 Datadog 원격 측정을 통해 추가 서비스를 검색하려면 페이지 상단의 [**Setup & Config** 탭][3]으로 이동하여 **Import Entries** 탭을 클릭합니다. `DD_SERVICE` [태그][5]가 포함된 다른 Datadog 원격 측정에서 서비스를 가져올 수 있습니다. - -{{< img src="tracing/service_catalog/import_entries.png" alt="Service Catalog 설정 및 구성 섹션의 Import Entries 탭" style="width:90%;" >}} - -가져온 일부 엔트리는 **Explore** 탭에 표시됩니다. [API 사용][1] 또는 [GitHub 통합][6]을 통해 소유자 또는 연락처와 같은 메타데이터를 추가하지 않으면 엔트리가 만료될 수 있습니다. - -기본 **Explore** 보기에서 가져온 서비스를 제거하려면 **Clear Previously Imported Services**를 클릭합니다. 이렇게 하면 메타데이터가 없거나 APM, USM(Universal Service Monitoring) 또는 RUM(Real User Monitoring) 원격 측정이 없는 모든 서비스가 제거됩니다. - -{{< img src="tracing/service_catalog/clear_imported_services.png" alt="Service Catalog 설정 및 구성 섹션에서 이전에 가져온 서비스 삭제 확인." style="width:90%;" >}} - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ko/tracing/service_catalog/service_definition_api/ -[2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml -[3]: https://app.datadoghq.com/services/settings/get-started -[4]: https://github.com/DataDog/schema/blob/main/service-catalog/v2/schema.json -[5]: /ko/getting_started/tagging/unified_service_tagging -[6]: /ko/integrations/github/ -[15]: https://backstage.io/docs/features/software-catalog/descriptor-format/ -[16]: https://docs.datadoghq.com/ko/integrations/servicenow/#service-ingestion -[17]: https://docs.datadoghq.com/ko/universal_service_monitoring/ -[18]: https://docs.datadoghq.com/ko/tracing/ \ No newline at end of file diff --git a/content/ko/service_management/events/guides/_index.md b/content/ko/service_management/events/guides/_index.md new file mode 100644 index 0000000000000..36d761ac9a321 --- /dev/null +++ b/content/ko/service_management/events/guides/_index.md @@ -0,0 +1,47 @@ +--- +aliases: +- /ko/developers/events/ +- /ko/event/guides/ +- /ko/events/guides/ +cascade: + algolia: + category: 가이드 + rank: 20 + subcategory: 이벤트 가이드 +disable_toc: true +further_reading: +- link: /service_management/events/explorer/ + tag: 설명서 + text: Datadog Events Explorer +- link: /monitors/types/event/ + tag: 설명서 + text: 이벤트 모니터 +private: true +title: 이벤트 가이드 +--- + +이벤트는 엔지니어(개발, 운영 및 보안 팀)에게 중요한 활동 기록을 의미합니다. + +{{< whatsnext desc="Datadog에 커스텀 이벤트 전송:">}} + {{< nextlink href="/service_management/event/guides/agent/" >}}커스텀 에이전트 점검{{< /nextlink >}} + {{< nextlink href="/service_management/event/guides/DogStatsD/" >}}DogStatsD{{< /nextlink >}} + {{< nextlink href="/service_management/event/guides/email/" >}}이메일{{< /nextlink >}} + {{< nextlink href="/API/v1/event/#post-an-event" >}}Datadog API{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="이벤트 태깅 확인:">}} + {{< nextlink href="/service_management/event/guides/recommended_event_tags/" >}}이벤트 태깅 모범 사례{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="이벤트 관리 사용 사례에 대해 자세히 알아보기:">}} + {{< nextlink href="/service_management/event/guides/usage" >}}이벤트 사용 사례{{< /nextlink >}} +{{< /whatsnext >}} + +{{< whatsnext desc="Other guides:">}} + {{< nextlink href="/service_management/event/guides/migrating_to_new_events_features/" >}}새로운 이벤트 기능으로 마이그레이션{{< /nextlink >}} +{{< /whatsnext >}} + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/cpp/_index.md b/content/ko/tracing/trace_collection/custom_instrumentation/cpp/_index.md new file mode 100644 index 0000000000000..7e1b333998a50 --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/cpp/_index.md @@ -0,0 +1,6 @@ +--- +external_redirect: /tracing/trace_collection/custom_instrumentation/cpp/dd-api +유형: multi-code-lang +제목: C++ +종류: 설명서 +--- diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/elixir.md b/content/ko/tracing/trace_collection/custom_instrumentation/elixir.md new file mode 100644 index 0000000000000..caeeb597657af --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/elixir.md @@ -0,0 +1,19 @@ +--- +description: Elixir 애플리케이션을 수동으로 계측하여 커스텀 트레이스를 Datadog로 전송합니다. +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: 설명서 + text: 로그 및 트레이스를 서로 연결 +- link: tracing/glossary/ + tag: 설명서 + text: 서비스, 리소스, 트레이스 탐색 +title: Elixir용 커스텀 계측 +--- + +Datadog에서는 [OpenTelemetry SDK][1] 사용 시 Elixir 애플리케이션을 위한 커스텀 계측을 지원합니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://opentelemetry.io/docs/instrumentation/ \ No newline at end of file diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/go/_index.md b/content/ko/tracing/trace_collection/custom_instrumentation/go/_index.md new file mode 100644 index 0000000000000..3f8e2b4f53b94 --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/go/_index.md @@ -0,0 +1,6 @@ +--- +external_redirect: /tracing/trace_collection/custom_instrumentation/go/dd-api +유형: multi-code-lang +제목: Go +종류: 설명서 +--- diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/java/_index.md b/content/ko/tracing/trace_collection/custom_instrumentation/java/_index.md new file mode 100644 index 0000000000000..763d5c5d67da4 --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/java/_index.md @@ -0,0 +1,6 @@ +--- +external_redirect: /tracing/trace_collection/custom_instrumentation/java/dd-api +유형: multi-code-lang +제목: 자바(Java) +종류: 설명서 +--- diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/php/_index.md b/content/ko/tracing/trace_collection/custom_instrumentation/php/_index.md new file mode 100644 index 0000000000000..8324aae9b3a00 --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/php/_index.md @@ -0,0 +1,6 @@ +--- +external_redirect: /tracing/trace_collection/custom_instrumentation/php/dd-api +유형: multi-code-lang +제목: PHP +종류: 문서 +--- diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/ruby/_index.md b/content/ko/tracing/trace_collection/custom_instrumentation/ruby/_index.md new file mode 100644 index 0000000000000..f93d3f4b28137 --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/ruby/_index.md @@ -0,0 +1,6 @@ +--- +external_redirect: /tracing/trace_collection/custom_instrumentation/ruby/dd-api +유형: 다중 코드 언어 +제목: 루비(Ruby) +종류: 설명서 +--- diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/rust.md b/content/ko/tracing/trace_collection/custom_instrumentation/rust.md new file mode 100644 index 0000000000000..b1c12004c3c9c --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/rust.md @@ -0,0 +1,19 @@ +--- +description: Rust 애플리케이션을 수동으로 계측하여 커스텀 트레이스를 Datadog로 전송합니다. +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: 설명서 + text: 로그 및 트레이스를 서로 연결 +- link: tracing/glossary/ + tag: 설명서 + text: 서비스, 리소스, 트레이스 탐색 +title: Rust용 커스텀 계측 +--- + +Datadog에서는 [OpenTelemetry SDK][1] 사용 시 Rust 애플리케이션을 위한 커스텀 계측을 지원합니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://opentelemetry.io/docs/instrumentation/ \ No newline at end of file diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/swift.md b/content/ko/tracing/trace_collection/custom_instrumentation/swift.md new file mode 100644 index 0000000000000..8d5c0930bbb4f --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/swift.md @@ -0,0 +1,19 @@ +--- +description: Swift 애플리케이션을 수동으로 계측하여 커스텀 트레이스를 Datadog로 전송합니다. +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: 설명서 + text: 로그 및 트레이스를 서로 연결 +- link: tracing/glossary/ + tag: 설명서 + text: 서비스, 리소스, 트레이스 탐색 +title: Swift용 커스텀 계측 +--- + +Datadog에서는 [OpenTelemetry SDK][1] 사용 시 Swift 애플리케이션을 위한 커스텀 계측을 지원합니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://opentelemetry.io/docs/instrumentation/ \ No newline at end of file