diff --git a/content/fr/cloud_cost_management/setup/google_cloud.md b/content/fr/cloud_cost_management/setup/google_cloud.md
index 6cd5cc61bef..b6f0712d503 100644
--- a/content/fr/cloud_cost_management/setup/google_cloud.md
+++ b/content/fr/cloud_cost_management/setup/google_cloud.md
@@ -28,6 +28,8 @@ Pour utiliser Google Cloud Cost Management dans Datadog, suivez ces étapes :
## Configuration
+Vous pouvez configurer le système en utilisant l'[API][18] ou [Terraform][19], ou directement dans Datadog en suivant les instructions ci-dessous.
+
### Configurer l'intégration de Google Cloud Platform
Accédez à [Setup & Configuration][3], et sélectionnez une intégration Google Cloud Platform.
Si vous ne voyez pas le compte de service souhaité dans la liste, accédez à l'[intégration Google Cloud Platform][4] pour le configurer.
@@ -204,4 +206,6 @@ Les tags prêts à l'emploi suivants sont disponibles : | Produit Google | Tag(s
[14]: /fr/cloud_cost_management/container_cost_allocation/
[15]: /fr/cloud_cost_management/setup/google_cloud/#create-or-select-a-google-cloud-storage-bucket
[16]: https://cloud.google.com/billing/docs/how-to/export-data-bigquery-tables/detailed-usage
-[17]: /fr/cloud_cost_management/tags
\ No newline at end of file
+[17]: /fr/cloud_cost_management/tags
+[18]: /fr/api/latest/cloud-cost-management/#create-google-cloud-usage-cost-config
+[19]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/gcp_uc_config
\ No newline at end of file
diff --git a/content/fr/cloudcraft/getting-started/datadog-integration.md b/content/fr/cloudcraft/getting-started/datadog-integration.md
new file mode 100644
index 00000000000..8e10cc91169
--- /dev/null
+++ b/content/fr/cloudcraft/getting-started/datadog-integration.md
@@ -0,0 +1,77 @@
+---
+title: Intégration Datadog
+---
+
+## Présentation
+
+L'intégration entre Datadog et Cloudcraft fournit aux utilisateurs un workflow simplifié pour la surveillance et la visualisation de leur infrastructure cloud.
+
+En tirant parti de la puissante plateforme de surveillance de Datadog, vous pouvez vous connecter à Cloudcraft avec votre compte Datadog, passer aisément de n'importe quelle ressource dans Cloudcraft aux vues correspondantes dans Datadog, et ajouter automatiquement à Cloudcraft les comptes cloud qui ont déjà été configurés dans Datadog.
+
+## Authentification unique (SSO) Datadog
+
+Vous pouvez vous inscrire et vous connecter à Cloudcraft à l'aide de votre compte Datadog. Cette intégration offre une expérience unifiée en associant vos données de surveillance Datadog à vos diagrammes d'architecture Cloudcraft.
+
+### S'inscrire avec le SSO Datadog
+
+Pour commencer, choisissez l'option **Sign up with Datadog** lors de votre inscription à Cloudcraft. Une fois l'inscription terminée, vous pouvez vous connecter à Cloudcraft à l'aide de vos identifiants Datadog. Cela simplifie le processus de connexion et permet d'intégrer les deux plateformes.
+
+En utilisant le SSO Datadog, vous bénéficiez automatiquement des avantages suivants :
+
+- **Fonctionnalités multiplateforme** : basculez facilement entre Cloudcraft et Datadog pour analyser votre infrastructure cloud et ses performances.
+- **Intégration automatisée des comptes cloud** : les comptes cloud configurés dans Datadog sont automatiquement ajoutés à Cloudcraft, ce qui vous permet de visualiser l'ensemble de votre infrastructure sur les deux plateformes.
+
+### Activer le SSO Datadog pour des comptes existants
+
+Si, lors de votre inscription initiale, vous avez utilisé une autre méthode de connexion, par exemple le SSO Google ou un nom d'utilisateur et un mot de passe standard, vous n'avez pas accès à l'ensemble des fonctionnalités d'intégration de Datadog. Pour utiliser plutôt le SSO Datadog, [contactez l'équipe d'assistance Cloudcraft][1] afin qu'elle vous aide à convertir votre compte.
+
+## Intégration des comptes cloud
+
+
Cette fonctionnalité prend uniquement en charge les comptes Amazon Web Services (AWS). La synchronisation avec Azure ou avec d'autres fournisseurs cloud n'est pour l'instant pas disponible.
+
+L'intégration entre Cloudcraft et Datadog simplifie la gestion des comptes cloud, en ajoutant automatiquement à Cloudcraft les comptes déjà configurés dans Datadog. Aucune configuration supplémentaire n'est requise dans Cloudcraft.
+
+Par défaut, ces comptes sont partagés avec tous les membres de votre équipe Cloudcraft, ce qui facilite l'accès de tous.
+
+{{< img src="cloudcraft/getting-started/datadog-integration/manage-aws-accounts.png" alt="L'interface Manage AWS Accounts dans Cloudcraft avec l'intégration Datadog." responsive="true" style="width:100%;">}}
+
+Pour visualiser et schématiser des ressources dans Cloudcraft, [assurez-vous que la collecte des ressources est activée sur Datadog][2]. Lorsque c'est le cas, Datadog recueille des informations sur vos ressources AWS en effectuant des appels d'API en lecture seule sur votre compte AWS. Cloudcraft s'appuie sur ces informations pour représenter votre infrastructure. Sans la collecte des ressources, vos comptes AWS sont ajoutés à Cloudcraft, mais aucune ressource n'est disponible pour les diagrammes.
+
+Si la plateforme Datadog ne contient aucun compte AWS, vous devez d'abord ajouter un ou plusieurs comptes AWS. Suivez les instructions indiquées dans le [guide sur l'intégration AWS][3].
+
+### Gérer les comptes AWS ajoutés à Cloudcraft
+
+Dans Cloudcraft, sous l'onglet **Live**, les comptes AWS ajoutés depuis Datadog sont identifiés par le logo de Datadog (Bits).
+
+{{< img src="cloudcraft/getting-started/datadog-integration/bits-icon.png" alt="L'outil de sélection de comptes cloud affichant les comptes AWS gérés dans l'intégration entre Cloudcraft et Datadog." responsive="true" style="width:100%;">}}
+
+Si vous disposez d'un grand nombre de comptes, mais que vous souhaitez visualiser seulement certains d'entre eux, vous pouvez utiliser les paramètres de visibilité pour masquer des comptes spécifiques depuis l'outil de sélection de comptes de l'onglet **Live**.
+
+Pour gérer les paramètres de visibilité de ces comptes, procédez comme suit :
+
+1. Accédez à **User > AWS Accounts**.
+2. Sélectionnez l'option **Edit** (représentée par une icône de crayon en regard du nom du compte).
+3. Activez l'option **Visibility on Live** pour choisir si le compte est ou non visible par l'équipe.
+
+Pour gérer le nom du compte, procédez comme suit :
+
+1. Accédez à **User > AWS Accounts**.
+2. Sélectionnez l'option **Edit** (représentée par une icône de crayon en regard du nom du compte).
+3. Modifiez le nom du compte dans le champ **Name**.
+
+Les modifications apportées au nom ou aux paramètres de visibilité n'auront pas d'incidence sur le compte dans la plateforme Datadog.
+
+### Avantages en termes de performances
+
+Comparés aux comptes AWS ajoutés directement dans Cloudcraft, les comptes AWS ajoutés depuis Datadog offrent de meilleures performances lors de la création de diagrammes. En effet, Cloudcraft utilise des données qui ont déjà été recueillies par Datadog, plutôt que de faire appel aux API AWS.
+
+## Menu Bits
+
+Le menu Bits de Cloudcraft vous permet d'accéder aux informations pertinentes de Datadog à partir de n'importe quelle ressource de votre diagramme d'architecture. Que vous ayez besoin de consulter des logs, d'afficher des traces APM ou d'analyser des métriques, vous pouvez utiliser le menu Bits pour naviguer facilement de Cloudcraft à Datadog en un seul clic, sans perdre le contexte.
+
+Pour plus d'informations sur l'utilisation du menu Bits, reportez-vous à la [documentation pertinente][4].
+
+[1]: https://app.cloudcraft.co/app/support
+[2]: /fr/integrations/amazon_web_services/#resource-collection
+[3]: /fr/integrations/amazon_web_services/
+[4]: /fr/cloudcraft/getting-started/using-bits-menu/
\ No newline at end of file
diff --git a/content/fr/cloudcraft/getting-started/diagram-multiple-cloud-accounts.md b/content/fr/cloudcraft/getting-started/diagram-multiple-cloud-accounts.md
new file mode 100644
index 00000000000..bba3aee5aa0
--- /dev/null
+++ b/content/fr/cloudcraft/getting-started/diagram-multiple-cloud-accounts.md
@@ -0,0 +1,39 @@
+---
+title: Schématiser plusieurs comptes cloud
+---
+
+Cloudcraft est un outil vous aidant à visualiser et planifier aisément et efficacement votre architecture cloud. Ce guide explique comment utiliser l'expérience d'origine de Cloudcraft pour représenter plusieurs comptes cloud dans un diagramme. Procédez comme suit pour créer un diagramme cohérent basé sur plusieurs comptes cloud.
+
+
+
+## 1. Activer l'expérience d'origine
+
+Pour représenter plusieurs comptes cloud dans un diagramme, vous devez activer l'expérience originale :
+
+1. Ouvrez Cloudcraft et accédez à l'onglet **Live**.
+2. Repérez l'option **New Live Experience** et vérifiez qu'elle est **désactivée**.
+
+{{< img src="cloudcraft/getting-started/diagram-multiple-cloud-accounts/new-live-experience-toggle.png" alt="Interface de Cloudcraft affichant l'interrupteur de la nouvelle expérience Live pour plusieurs comptes cloud." responsive="true" style="width:100%;">}}
+
+## 2. Configurer la disposition du premier compte
+
+Une fois l'expérience originale activée, configurez la disposition du premier compte :
+
+1. Choisissez le premier compte cloud que vous souhaitez visualiser.
+2. Lancez une analyse de ce compte pour recueillir les détails de son architecture actuelle.
+3. Sélectionnez le bouton **Auto Layout** pour disposer automatiquement les composants de ce compte dans le diagramme.
+
+## 3. Configurer la disposition du deuxième compte
+
+Après avoir représenté le premier compte dans le diagramme, vous pouvez y ajouter d'autres comptes :
+
+1. Choisissez le deuxième compte cloud à ajouter.
+2. Effectuez une analyse du deuxième compte pour identifier son architecture.
+3. Sélectionnez **Auto Layout**.
+4. Accédez au menu déroulant **Options** et sélectionnez **Include existing components**. Cette option permet de s'assurer que les composants du premier compte restent visibles et que les deux comptes sont intégrés à un seul diagramme.
+
+{{< img src="cloudcraft/getting-started/diagram-multiple-cloud-accounts/auto-layout-options.png" alt="Interface de Cloudcraft affichant l'inventaire AWS et les options des composants Live." responsive="true" style="width:100%;">}}
+
+Vous pouvez répéter cette étape afin d'inclure des comptes supplémentaires dans le diagramme.
+
+Cette procédure permet d'obtenir une vue consolidée de plusieurs comptes cloud au sein d'un unique diagramme Cloudcraft. Examinez la disposition pour vous assurer que tous les composants nécessaires sont inclus et positionnés comme vous le souhaitez. Ajustez manuellement les placements si nécessaire, afin d'améliorer la clarté ou le rendu.
\ No newline at end of file
diff --git a/content/fr/cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence.md b/content/fr/cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence.md
new file mode 100644
index 00000000000..8604d2b88ae
--- /dev/null
+++ b/content/fr/cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence.md
@@ -0,0 +1,39 @@
+---
+title: Intégrer des diagrammes Cloudcraft dans l'application Confluence
+---
+
+Cet article décrit la marche à suivre pour intégrer naturellement vos diagrammes Cloudcraft existants à une page Confluence grâce à l'app Confluence de Cloudcraft.
+
+Ce processus vous permet d'accorder aux utilisateurs autorisés un accès aux diagrammes, sans nécessiter d'abonnements Cloudcraft individuels, et de bénéficier d'une documentation centralisée et à jour de votre infrastructure.
+
+## Installer l'application
+
+Pour installer l'application Confluence de Cloudcraft, connectez-vous à Confluence en tant qu'administrateur, accédez à [l'offre Cloudcraft du marketplace][1], puis cliquez sur **Get it now**.
+
+{{< img src="cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence/marketplace-listing.png" alt="App de Cloudcraft dans le marketplace Atlassian." responsive="true" style="width:100%;">}}
+
+## Utiliser l'application
+
+Ouvrez une page Confluence, saisissez **/cloudcraft**, puis cliquez sur la commande d'application qui s'affiche.
+
+{{< img src="cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence/embed-command.png" alt="L'outil Cloudcraft permettant d'intégrer des diagrammes dans un document Confluence." responsive="true" style="width:100%;">}}
+
+Cliquez ensuite sur **Sign in** pour vous connecter à votre compte Cloudcraft.
+
+{{< img src="cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence/signin-or-signup.png" alt="La page de connexion de Cloudcraft pour l'intégration Confluence, avec des options pour se connecter avec Datadog, Google ou une adresse e-mail." responsive="true" style="width:100%;">}}
+
+Une fois la connexion établie, l'outil de sélection de diagramme s'affiche. Sélectionnez le diagramme que vous souhaitez intégrer depuis la liste.
+
+Vous pouvez également rechercher, filtrer et trier les diagrammes dans l'outil de sélection de diagramme.
+
+{{< img src="cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence/blueprint-picker.png" alt="L'app Confluence de Cloudcraft affichant des options permettant d'insérer des blueprints d'architecture cloud dans une page Confluence, avec des diagrammes étiquetés pour des environnements intermédiaires ou en production." responsive="true" style="width:100%;">}}
+
+Après avoir sélectionné un diagramme, un aperçu du diagramme intégré s'affiche sur votre page Confluence. Vous avez la possibilité de sélectionner le menu de taille de fenêtre pour modifier la largeur du diagramme, ou encore de cliquer sur l'icône de crayon pour rouvrir l'outil de sélection de diagramme.
+
+{{< img src="cloudcraft/getting-started/embedding-cloudcraft-diagrams-confluence/window-size-menu.png" alt="Une vue isométrique d'une disposition d'infrastructure cloud dans Cloudcraft, avec des instances EC2, des répartiteurs de charge et des bases de données RDS intégrées à une page Confluence." responsive="true" style="width:100%;">}}
+
+Lorsque vous publiez ou prévisualisez la page Confluence, l'ensemble de votre diagramme Cloudcraft est intégré à la page.
+
+Seuls les utilisateurs Confluence peuvent consulter les diagrammes intégrés. Les diagrammes ne s'affichent pas si vous accédez à une page Confluence depuis l'URL publique.
+
+[1]: https://marketplace.atlassian.com/apps/1233281/cloudcraft-aws-and-azure-cloud-diagrams-for-confluence?hosting=cloud&tab=overview
\ No newline at end of file
diff --git a/content/fr/cloudcraft/getting-started/version-history.md b/content/fr/cloudcraft/getting-started/version-history.md
new file mode 100644
index 00000000000..75881e3134e
--- /dev/null
+++ b/content/fr/cloudcraft/getting-started/version-history.md
@@ -0,0 +1,78 @@
+---
+title: Historique des versions
+---
+
+## Section Overview
+
+L'historique des versions permet aux utilisateurs de suivre les modifications apportées à leurs diagrammes d'architecture au fil du temps, afin de pouvoir passer en revue les changements et restaurer des versions précédentes des diagrammes. L'historique des versions fournit des informations précieuses sur l'évolution de vos diagrammes, que ce soit pour la gestion d'architectures cloud complexes ou la simple collaboration au sein d'une équipe.
+
+Pour accéder à l'historique des versions, cliquez sur le bouton **Version history** dans le coin supérieur droit de l'application Cloudcraft.
+
+{{< img src="cloudcraft/getting-started/version-history/cloudcraft-diagram-aws-infrastructure-version-history.png" alt="Diagramme Cloudcraft représentant une infrastructure AWS, avec une flèche pointant vers le bouton de l'historique des versions." responsive="true" style="width:100%;">}}
+
+## Utiliser les différentes versions
+
+L'historique des versions vous permet non seulement de consulter les changements apportés, mais également de gérer efficacement vos diagrammes actuels et futurs. Depuis l'historique, vous pouvez accomplir plusieurs actions essentielles :
+
+1. **Restauration de versions précédentes** : vous pouvez facilement rétablir une ancienne version de votre diagramme, au besoin. Il vous suffit de cliquer sur le bouton **Restore this version** en haut à droite de l'écran lorsque vous visualisez une version précédente.
+2. **Création de nouveaux blueprints** : l'historique des versions vous permet d'enregistrer n'importe quelle version spécifique de votre diagramme en tant que nouveau blueprint. Cette fonction s'avère particulièrement utile pour créer des modèles ou conserver des versions précises de l'architecture afin de pouvoir vous y référer ultérieurement. Pour créer un blueprint à partir d'une version, cliquez sur l'icône des trois points à droite du nom de la version et sélectionnez **Save as a new blueprint**.
+3. **Comparaison de versions** : bien qu'il n'existe pas de réelle fonction de comparaison, vous pouvez comparer manuellement plusieurs versions afin de visualiser l'évolution de votre architecture.
+
+**Remarque** : il n'est pas possible de créer manuellement des versions ni d'en supprimer à partir de l'historique.
+
+### Création de versions
+
+Des versions sont automatiquement créées pendant que vous travaillez sur vos diagrammes. Par défaut, chaque version est horodatée et nommée à partir de la date et de l'heure de sa création. Vous pouvez toutefois attribuer des noms personnalisés à des versions spécifiques, par exemple pour des étapes importantes ou des changements majeurs de votre architecture, afin de pouvoir vous y référer plus facilement.
+
+Pour nommer une version, procédez comme suit :
+
+1. Sélectionnez la version à nommer.
+2. Cliquez sur l'icône des trois points à droite du nom de la version.
+3. Choisissez l'option **Name this version** dans le menu déroulant.
+
+{{< img src="cloudcraft/getting-started/version-history/version-history-interface-cloudcraft.png" alt="L'interface de l'historique des versions, avec des options permettant de nommer ou d'enregistrer des versions dans Cloudcraft." responsive="true" style="width:100%;">}}
+
+Cloudcraft crée de nouvelles versions de manière intelligente, afin de concilier granularité et efficacité. Si la version actuelle date de plus de cinq minutes, toute nouvelle modification déclenche la création d'une nouvelle version. Tou changement apporté moins de cinq minutes après la création de la dernière version est intégré à celle-ci. Grâce à cette approche, l'historique des versions demeure exploitable et n'est pas surchargé de changements mineurs.
+
+Bien que vous ne puissiez pas créer manuellement de version, sachez qu'une nouvelle version est automatiquement générée lorsque vous passez du mode [Snapshot au mode Live][1] dans votre diagramme.
+
+### Métadonnées
+
+Chaque version de l'historique comprend des métadonnées, telles que des noms d'utilisateurs et des horodatages.
+
+Le nom de l'utilisateur qui a créé la version est affiché à droite du nom de la version. Si un autre utilisateur a modifié en dernier la version, son nom est également affiché. Cela permet de conserver une traçabilité précise des modifications.
+
+{{< img src="cloudcraft/getting-started/version-history/cloudcraft-version-history-user-timestamps.png" alt="Interface de l'historique des versions, avec des détails sur des utilisateurs et des horodatages." responsive="true" style="width:100%;">}}
+
+Pour les diagrammes Live, une icône en forme d'éclair vert est indiquée à gauche du nom de la version, afin de distinguer ces versions dynamiques des versions Snapshot.
+
+### Recherche
+
+Pour vous aider à utiliser votre historique des versions, Cloudcraft propose une fonctionnalité de recherche. Vous pouvez rechercher des versions spécifiques par nom ou par date, afin de retrouver plus facilement des états précis de votre diagramme à différents moments.
+
+Pour rechercher une version, saisissez votre requête dans la barre de recherche en haut du volet de l'historique des versions.
+
+Si vous souhaitez afficher uniquement les modifications importantes, il est possible de filtrer l'affichage en cochant la case **Only show named versions** sous la barre de recherche. Cette option masque les versions qui n'ont pas été nommées, de façon à alléger l'historique des versions affiché.
+
+### Rétention
+
+Les versions nommées sont conservées indéfiniment. Vous disposez ainsi d'une copie permanente des changements significatifs de vos diagrammes.
+
+La période de rétention des versions sans nom dépend de votre offre :
+- Offres gratuite et Pro : les versions sans nom sont conservées pendant 30 jours.
+- Offre Enterprise : les versions sans nom sont conservées pendant 90 jours.
+
+Cette approche à plusieurs niveaux permet aux utilisateurs occasionnels de conserver un historique utile tout en offrant une rétention prolongée aux entreprises avec des besoins plus complexes.
+
+## Meilleures pratiques
+
+Pour tirer le meilleur parti de la fonctionnalité d'historique des versions, plusieurs bonnes pratiques peuvent être adoptées :
+
+1. **Nommez les versions importantes** : attribuez des noms pertinents aux versions importantes de vos diagrammes. Cette pratique simple à appliquer permet d'identifier et de conserver durablement les étapes clés de l'évolution de votre architecture.
+2. **Effectuez des examens réguliers** : consultez fréquemment votre historique des versions afin de suivre l'évolution de votre architecture. Cela vous permet d'obtenir de précieuses informations sur vos décisions de conception et leur évolution.
+3. **Tirez profit de la fonctionnalité de recherche** : les recherches, et le filtre **Only show named versions**, vous permettent de parcourir efficacement votre historique des versions, notamment pour les projets comportant de nombreuses itérations.
+4. **Tenez compte de la rétention des versions** : si vous bénéficiez d'une offre gratuite ou Pro, n'oubliez pas que les versions sans nom sont conservées pendant 30 jours. Prenez donc soin de nommer les versions que vous souhaitez garder plus longtemps.
+5. **Appliquez une documentation collaborative** : lorsque vous travaillez avec des équipes, utilisez la fonctionnalité de nommage des versions pour documenter les personnes à l'origine des changements, ainsi que le motif des modifications. Cela vous permet de communiquer efficacement au sein de votre équipe.
+6. **Utilisez des versions pour vos propositions** : avant d'apporter des modifications importantes à votre architecture, créez une version nommée. Cela vous permet de revenir facilement en arrière si les changements proposés ne sont pas approuvés ou appliqués.
+
+[1]: /fr/cloudcraft/getting-started/live-vs-snapshot-diagrams/
\ No newline at end of file
diff --git a/content/fr/cloudprem/architecture.md b/content/fr/cloudprem/architecture.md
new file mode 100644
index 00000000000..c2b8d1e4be2
--- /dev/null
+++ b/content/fr/cloudprem/architecture.md
@@ -0,0 +1,51 @@
+---
+further_reading:
+- link: /cloudprem/install/
+ tag: Documentation
+ text: Prérequis à l'installation de CloudPrem
+title: Architecture
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/cloudprem/" btn_hidden="false" header="CloudPrem est en bêta" >}}
+ Participez à la bêta de CloudPrem pour profiter de nouvelles fonctionnalités autohébergées de gestion des logs.
+{{< /callout >}}
+
+## Présentation
+
+{{< img src="/cloudprem/overview_architecture.png" alt="Architecture CloudPrem avec des composants d'indexeurs, de chercheurs, de metastore et de plan de contrôle interagissant avec un stockage d'objets" style="width:100%;" >}}
+
+CloudPrem utilise une architecture découplée qui sépare le calcul (indexation et recherche) des données sur un stockage d'objets. Cela permet la mise à l'échelle et l'optimisation indépendantes des différents composants du cluster, en fonction des besoins du workload.
+
+## Composants
+
+Le cluster CloudPrem, qui est généralement déployé sur Kubernetes (EKS), comporte plusieurs composants :
+
+**Indexeurs**
+: Les indexeurs sont chargés de recevoir les logs des Agents Datadog. Ils traitent, indexent et stockent les logs dans des fichiers d'index, ou _splits_, dans le stockage d'objets (par exemple, Amazon S3).
+
+**Chercheurs**
+: Les chercheurs gèrent les requêtes de recherche à partir de l'IU Datadog, lisent les métadonnées du metastore et récupèrent les données à partir du stockage d'objets.
+
+**Metastore**
+: Le metastore stocke les métadonnées sur les index, y compris les emplacements des splits sur le stockage d'objets. CloudPrem utilise PostgreSQL à cette fin.
+
+**Plan de contrôle**
+: Le plan de contrôle planifie des tâches d'indexation appelées _pipelines d'indexation_ sur les indexeurs.
+
+**Agent d'entretien**
+: L'agent d'entretien effectue des tâches de maintenance. Il applique des stratégies de rétention, nettoie les splits expirés et exécute les tâches de requête de suppression.
+
+
+## Connexion à l'IU Datadog
+
+Il existe deux façons de connecter l'IU Datadog à CloudPrem :
+- [**Inverser la connexion**][1] : faites en sorte que CloudPrem initie des requêtes gRPC bilatérales vers Datadog.
+- [**Accepter des requêtes externes de Datadog**][2] : renseignez dans Datadog un endpoint DNS pour les requêtes gRPC et configurez un Ingress public pour accepter ces requêtes.
+
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /fr/cloudprem/configure/reverse_connection/
+[2]: /fr/cloudprem/configure/ingress/
\ No newline at end of file
diff --git a/content/fr/cloudprem/troubleshooting.md b/content/fr/cloudprem/troubleshooting.md
new file mode 100644
index 00000000000..76cd07bbf8e
--- /dev/null
+++ b/content/fr/cloudprem/troubleshooting.md
@@ -0,0 +1,40 @@
+---
+further_reading:
+- link: /cloudprem/architecture/
+ tag: Documentation
+ text: Architecture CloudPrem
+title: Dépannage
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/cloudprem/" btn_hidden="false" header="CloudPrem est en bêta" >}}
+ Participez à la bêta de CloudPrem pour profiter de nouvelles fonctionnalités autohébergées de gestion des logs.
+{{< /callout >}}
+
+## Présentation
+
+Cette page rassemble des conseils de dépannage pour les problèmes courants susceptibles de se produire lors du déploiement ou de l'utilisation de la solution CloudPrem Datadog. Vous pouvez consulter des messages d'erreur types, des étapes de diagnostic, ainsi que des recommandations de mesures de résolution pour les problèmes liés aux autorisations d'accès, à la configuration du stockage et à l'intégrité des composants. Référez-vous à ce guide pour diagnostiquer rapidement des problèmes ou pour obtenir des informations contextuelles avant de contacter l'[assistance Datadog][1].
+
+
+## Autorisations d'accès
+
+Les erreurs les plus courantes sont causées par les autorisations d'accès au stockage d'objets ou au metastore. Pour résoudre ces problèmes, la solution la plus simple consiste à utiliser `kubectl` et à vérifier les logs des composants CloudPrem : pods d'indexeur, de metastore et de chercheur.
+
+## Erreurs de stockage
+
+Le message d'erreur suivant, avec la valeur `Unauthorized`, s'affiche dans les logs de vos indexeurs si vous avez défini les mauvais identifiants AWS :
+
+```
+Command failed: Another error occurred. `Metastore error`. Cause: `StorageError(kind=Unauthorized, source=failed to fetch object: s3://my-bucket/datadog-index/some-id.split)`
+```
+
+L'erreur suivante s'affiche lorsque la mauvaise région est définie :
+
+```
+Command failed: Another error occurred. `Metastore error`. Cause: `StorageError(kind=Internal, source=failed to fetch object: s3://my-bucket/datadog-index/some-id.split)`
+```
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /fr/help/
\ No newline at end of file
diff --git a/content/fr/code_analysis/git_hooks/_index.md b/content/fr/code_analysis/git_hooks/_index.md
new file mode 100644
index 00000000000..ed34eaab8ef
--- /dev/null
+++ b/content/fr/code_analysis/git_hooks/_index.md
@@ -0,0 +1,63 @@
+---
+description: Empêcher la fusion de code contenant des erreurs
+further_reading:
+- link: /code_analysis/
+ tag: Documentation
+ text: En savoir plus sur Code Analysis
+- link: /code_analysis/static_analysis/
+ tag: Documentation
+ text: En savoir plus sur Static Analysis
+- link: /code_analysis/software_composition_analysis/
+ tag: Documentation
+ text: En savoir plus sur Software Composition Analysis
+title: Hooks Git
+---
+
+## Présentation
+
+Un [hook Git](https://git-scm.com/docs/githooks) est un programme exécuté avant qu'un utilisateur procède à un commit de code vers un référentiel ou à un push de code vers un emplacement distant. Un hook Git sert généralement à effectuer des vérifications et à faire respecter certaines exigences à propos du code avant son push vers une branche distante.
+
+La solution Code Analysis de Datadog fournit un hook Git pour vérifier si l'analyse statique a détecté des violations ou des secrets avant le push ou le commit du code. Le hook Git de Code Analysis analyse le code du dernier commit et de la dernière branche, et affiche les erreurs détectées.
+
+Le hook Git Datadog avertit les développeurs avant qu'ils ne push du code contenant des erreurs de codage, des vulnérabilités ou des secrets. Lorsqu'un commit contient une erreur, un message similaire à ce qui suit s'affiche dans le terminal de l'utilisateur :
+
+{{< img src="code_analysis/git_hooks/git_hook.png" alt="Hook Git Datadog détectant des vulnérabilités" style="width:100%;">}}
+
+## Configuration
+
+1. Téléchargez le programme `datadog-git-hook` à partir de la page des versions ou des [versions du Static Analyzer
+de Datadog](https://github.com/DataDog/datadog-static-analyzer/releases).
+2. Installez le programme sur votre ordinateur.
+3. Ajoutez un fichier `.git/hooks/pre-push` dans le référentiel comprenant le script ci-dessous. **Remarque :** le script suppose que le binaire `datadog-static-analyzer-git-hook` se trouve dans `/usr/local/bin/datadog-static-analyzer-git-hook`.
+
+```bash
+#!/bin/sh
+
+# Obtenir le chemin racine du référentiel
+repo_path=$(git rev-parse --show-toplevel)
+
+# Vérifier que l'utilisateur peut fournir des données
+exec < /dev/tty
+
+/usr/local/bin/datadog-static-analyzer-git-hook -r $repo_path --static-analysis --secrets --confirmation --default-branch
+
+if [ $? -eq 0 ]; then
+ echo "datadog-static-analyzer check passed"
+ exit 0
+else
+ echo "datadog-static-analyzer check failed"
+ exit 1
+fi
+```
+
+Le programme accepte les paramètres suivants :
+
+ - `--confirmation` : demande.à l'utilisateur de confirmer avant d'ignorer le check du hook Git.
+ - `--default-branch` : spécifie le nom de la branche par défaut.
+ - `--static-analysis` ; active l'analyse statique.
+ - `--secrets` : active la détection des secrets (bêta privée).
+ - `--output ` : exporte les résultats du commit dans un fichier SARIF.
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/ja/error_tracking/backend/getting_started/dd_libraries.md b/content/ja/error_tracking/backend/getting_started/dd_libraries.md
new file mode 100644
index 00000000000..c2702a4a7d0
--- /dev/null
+++ b/content/ja/error_tracking/backend/getting_started/dd_libraries.md
@@ -0,0 +1,110 @@
+---
+aliases:
+- /ja/error_tracking/standalone_backend/getting_started/dd_libraries
+further_reading:
+- link: /error_tracking/issue_states/
+ tag: ドキュメント
+ text: Error Tracking の問題の状態とワークフロー
+- link: /error_tracking/explorer
+ tag: ドキュメント
+ text: エラートラッキングエクスプローラーについて
+- link: /error_tracking/guides/enable_infra
+ tag: ガイド
+ text: Enable infrastructure monitoring
+- link: /error_tracking/guides/enable_apm
+ tag: ガイド
+ text: APM を有効にする
+title: Datadog トレーシング ライブラリを使ってバックエンド エラー トラッキングを導入する
+---
+
+Datadog ライブラリでアプリケーションをインスツルメントする手順は次のとおりです。
+
+1. [Agent をインストールして構成します](#install-and-configure-the-agent)。
+2. [Datadog のトレーシングライブラリをコードに追加](#instrument-your-application)します。
+
+## Agent のインストールと構成
+
+[関連ドキュメント][1] に従って Datadog Agent をインストールします。
+
+Agent を Error Tracking Backend のみで動作させるには、Agent v7.61+ を実行している必要があります。
+
+{{< tabs >}}
+{{% tab "Linux ホストまたは VM" %}}
+
+1. [datadog.yaml 設定ファイル][2] を開きます。
+2. 設定ファイル内の任意の場所に、トップ レベル属性として `core_agent` と `apm_config` を追加し、次の設定を行います。
+
+ ```yaml
+ core_agent:
+ enabled: false
+ apm_config:
+ error_tracking_standalone:
+ enabled: true
+ ```
+
+3. [Agent を再起動します][3]。
+
+[2]: /ja/agent/configuration/agent-configuration-files/
+[3]: /ja/agent/configuration/agent-commands/#restart-the-agent
+
+{{% /tab %}}
+{{% tab "Docker" %}}
+
+Docker コンテナ化した Agent を使用している場合は、次の環境変数を設定します。
+- `DD_CORE_AGENT_ENABLED=false`
+- `DD_APM_ERROR_TRACKING_STANDALONE_ENABLED=true`
+
+以下は、Docker 実行コマンドにこれらの設定を含める例です。
+
+```shell
+docker run -d --name datadog-agent \
+ --cgroupns host \
+ --pid host \
+ -e DD_API_KEY= \
+ -e DD_CORE_AGENT_ENABLED=false \
+ -e DD_APM_ERROR_TRACKING_STANDALONE_ENABLED=true \
+ -v /var/run/docker.sock:/var/run/docker.sock:ro \
+ -v /proc/:/host/proc/:ro \
+ -v /opt/datadog-agent/run:/opt/datadog-agent/run:rw \
+ -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \
+ gcr.io/datadoghq/agent:latest
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Kubernetes に Agent をデプロイする場合、Agent 構成に加えて Helm チャートに以下の変更を加えてください。
+
+```yaml
+agents:
+ containers:
+ agent:
+ env:
+ - name: DD_CORE_AGENT_ENABLED
+ value: "false"
+datadog:
+[...]
+ processAgent:
+ enabled: false
+ containerCollection: false
+[...]
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## アプリケーションをインスツルメントする
+
+関連する [ドキュメント][4] を参照し、公式 Datadog トレーシング ライブラリのいずれかを使ってトレースを送信できるようにアプリケーションをセットアップします。
+アプリケーション言語向けの [OpenTelemetry API ガイド][5] に従い、span イベント経由でエラーを手動送信します。
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/agent
+[4]: /ja/tracing/trace_collection/automatic_instrumentation/dd_libraries
+[5]: /ja/tracing/trace_collection/custom_instrumentation/?tab=opentelemetryapi#getting-started
\ No newline at end of file
diff --git a/content/ja/error_tracking/guides/enable_apm.md b/content/ja/error_tracking/guides/enable_apm.md
new file mode 100644
index 00000000000..0bf7368aabf
--- /dev/null
+++ b/content/ja/error_tracking/guides/enable_apm.md
@@ -0,0 +1,153 @@
+---
+further_reading:
+- link: /tracing
+ tag: ドキュメント
+ text: APM について
+- link: /error_tracking/guides/enable_infra
+ tag: ガイド
+ text: Enable Infrastructure Monitoring
+title: APM を有効にする
+---
+
+[Datadog アプリケーション パフォーマンス モニタリング (APM)][1] は、アプリケーションの動作を詳細に可視化し、パフォーマンス ボトルネックの特定、問題のトラブルシューティング、サービスの最適化を支援します。このガイドでは、スタンドアロン バックエンド エラー トラッキングに加えて APM を有効化し、その機能を活用できるように Datadog Agent の設定を更新する方法を説明します。
+
+{{< tabs >}}
+{{% tab "Linux ホストまたは VM" %}}
+
+If your agent is deployed on a Linux host, the configuration update depends on the method you used to install the agent.
+
+{{< collapse-content title="Single Step Instrumentation" level="h5" >}}
+For a Datadog agent installed using the one-line installation command:
+
+1. Open the [datadog.yaml configuration file][2].
+2. `enable_payloads` と `error_tracking_standalone` 属性を削除します:
+
+ ```diff
+ - # Configuration to prevent sending metric data so that hosts don't show up in Datadog.
+ - enable_payloads:
+ - series: false
+ - events: false
+ - service_checks: false
+ - sketches: false
+
+ # Configuration to enable the collection of errors so they show up in Error Tracking.
+ apm_config:
+ enabled: true
+ - error_tracking_standalone:
+ - enabled: true
+ ```
+
+3. [Agent を再起動します][3]。
+ {{< /collapse-content >}}
+
+{{< collapse-content title="Using Datadog tracing libraries" level="h5" >}}
+For a Datadog agent configured manually for Backend Error Tracking:
+
+1. Open the [datadog.yaml configuration file][2].
+2. `core_agent` と `error_tracking_standalone` 属性を削除します:
+
+ ```diff
+ - core_agent:
+ - enabled: false
+ apm_config:
+ + enabled: true
+ - error_tracking_standalone:
+ - enabled: true
+ ```
+
+3. [Agent を再起動します][3]。
+ {{< /collapse-content >}}
+
+[2]: /ja/agent/configuration/agent-configuration-files
+[3]: /ja/agent/configuration/agent-commands/#restart-the-agent
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Agent を Kubernetes にデプロイしている場合は、Agent のインストール方法に応じて Datadog Operator または Helm で設定を更新する必要があります。
+
+{{< collapse-content title="Helm" level="h5" >}}
+Helm でインストールした Datadog Agent の場合:
+
+1. Update your `datadog-values.yaml` file, replacing the `site` and `env` values appropriately:
+
+ ```diff
+ agents:
+ containers:
+ agent:
+ env:
+ [...]
+ - - name: DD_CORE_AGENT_ENABLED
+ - value: "false"
+ datadog:
+ - processAgent:
+ - enabled: false
+ - containerCollection: false
+ apiKeyExistingSecret: datadog-secret
+ site:
+ tags:
+ - env:
+ apm:
+ - errorTrackingStandalone:
+ - enabled: true
+ # Required to enable Single-Step Instrumentation
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+
+2. After making your changes, upgrade your Datadog Helm chart:
+ ```shell
+ helm upgrade -f datadog-values.yaml datadog-agent datadog/datadog
+ ```
+{{< /collapse-content >}}
+
+{{< collapse-content title="Datadog Operator" level="h5" >}}
+For a Datadog agent installed with the Datadog Operator:
+
+1. Update your `datadog-agent.yaml` file, replacing the `site` and `env` values appropriately:
+ ```diff
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ site:
+ tags:
+ - env:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ env:
+ - - name: DD_CORE_AGENT_ENABLED
+ - value: "false"
+ features:
+ apm:
+ - errorTrackingStandalone:
+ - enabled: true
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+2. 更新したコンフィギュレーションファイルで Datadog Agent をデプロイします。
+ ```shell
+ kubectl apply -f path/to/your/datadog-agent.yaml
+ ```
+{{< /collapse-content >}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+[1]: /ja/tracing
\ No newline at end of file
diff --git a/content/ja/error_tracking/guides/enable_infra.md b/content/ja/error_tracking/guides/enable_infra.md
new file mode 100644
index 00000000000..5545a833b51
--- /dev/null
+++ b/content/ja/error_tracking/guides/enable_infra.md
@@ -0,0 +1,150 @@
+---
+further_reading:
+- link: /infrastructure
+ tag: ドキュメント
+ text: Infrastructure Monitoring について
+- link: /error_tracking/guides/enable_apm
+ tag: ガイド
+ text: APM を有効にする
+title: Infrastructure Monitoring を有効化する
+---
+
+[Infrastructure monitoring][1] には、ホスト、コンテナ、プロセスのパフォーマンスを可視化、監視、測定する Datadog の主要機能が含まれます。このガイドでは、Infrastructure monitoring を有効化し、スタンドアロンのバックエンド エラー トラッキングに加えてその機能を活用できるよう、Datadog Agent 設定を更新する方法を説明します。
+
+{{< tabs >}}
+{{% tab "Linux ホストまたは VM" %}}
+
+Agent が Linux ホストにデプロイされている場合、設定の更新手順は Agent のインストール方法によって異なります。
+
+{{< collapse-content title="Single Step Instrumentation" level="h5" >}}
+1 行のインストール コマンドで Datadog Agent をインストールした場合:
+
+1. Open the [datadog.yaml configuration file][2].
+2. `enable_payloads` のトップ レベル属性を削除します:
+
+ ```diff
+ - enable_payloads:
+ - series: false
+ - events: false
+ - service_checks: false
+ - sketches: false
+
+ apm_config:
+ enabled: true
+ error_tracking_standalone:
+ enabled: true
+ ```
+
+3. [Agent を再起動します][3]。
+ {{< /collapse-content >}}
+
+{{< collapse-content title="Using Datadog tracing libraries" level="h5" >}}
+Backend Error Tracking 用に Datadog Agent を手動で設定している場合:
+
+1. Open the [datadog.yaml configuration file][2].
+2. `core_agent` のトップ レベル属性を削除します:
+
+ ```diff
+ - core_agent:
+ - enabled: false
+ apm_config:
+ error_tracking_standalone:
+ enabled: true
+ ```
+
+3. [Agent を再起動します][3]。
+ {{< /collapse-content >}}
+
+[2]: /ja/agent/configuration/agent-configuration-files
+[3]: /ja/agent/configuration/agent-commands/#restart-the-agent
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Agent を Kubernetes にデプロイしている場合は、インストール方法に応じて Datadog Operator または Helm で設定を更新する必要があります。
+
+{{< collapse-content title="Helm" level="h5" >}}
+Helm で Datadog Agent をインストールした場合:
+
+1. `datadog-values.yaml` ファイルを更新し、`site` と `env` の値を適切に置き換えます:
+
+ ```diff
+ agents:
+ containers:
+ agent:
+ env:
+ [...]
+ - - name: DD_CORE_AGENT_ENABLED
+ - value: "false"
+ datadog:
+ - processAgent:
+ - enabled: false
+ - containerCollection: false
+ apiKeyExistingSecret: datadog-secret
+ site:
+ tags:
+ - env:
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+ # Required to enable Single-Step Instrumentation
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+
+2. 変更後、Datadog Helm chart をアップグレードします:
+ ```shell
+ helm upgrade -f datadog-values.yaml datadog-agent datadog/datadog
+ ```
+{{< /collapse-content >}}
+
+{{< collapse-content title="Datadog Operator" level="h5" >}}
+Datadog Operator で Datadog Agent をインストールした場合:
+
+1. `datadog-agent.yaml` ファイルを更新し、`site` と `env` の値を適切に置き換えます:
+ ```diff
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ site:
+ tags:
+ - env:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ env:
+ - - name: DD_CORE_AGENT_ENABLED
+ - value: "false"
+ features:
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+2. 更新したコンフィギュレーションファイルで Datadog Agent をデプロイします。
+ ```shell
+ kubectl apply -f path/to/your/datadog-agent.yaml
+ ```
+{{< /collapse-content >}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+[1]: /ja/infrastructure
\ No newline at end of file
diff --git a/content/ja/integrations/crest_data_systems_microsoft_defender.md b/content/ja/integrations/crest_data_systems_microsoft_defender.md
index 2132b5dc306..4222475b222 100644
--- a/content/ja/integrations/crest_data_systems_microsoft_defender.md
+++ b/content/ja/integrations/crest_data_systems_microsoft_defender.md
@@ -33,7 +33,7 @@ assets:
source_type_id: 10263
source_type_name: crest_data_systems_microsoft_defender
monitors:
- '[Crest Data Systems Microsoft 365 Defender] Missing KBs of Endpoint': assets/monitors/cds_missing_kbs_of_endpoint.json
+ Missing KBs of Endpoint: assets/monitors/cds_missing_kbs_of_endpoint.json
author:
homepage: https://www.crestdata.ai
name: Crest Data
@@ -44,7 +44,7 @@ categories:
- インシデント
- マーケットプレイス
- セキュリティ
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -131,10 +131,10 @@ Microsoft 365 Defender は、エンドポイント、アイデンティティ、
サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから Crest Data にお問い合わせください。
-- Support Email: [datadog.integrations@crestdata.ai][9]
-- Sales Email: [datadog-sales@crestdata.ai][10]
-- Website: [crestdata.ai][4]
-- FAQ: [Crest Data Datadog Marketplace Integrations FAQ][2]
+- サポートメール: [datadog.integrations@crestdata.ai][9]
+- 営業メール: [datadog-sales@crestdata.ai][10]
+- Web サイト: [crestdata.ai][4]
+- よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][2]
[1]: https://docs.crestdata.ai/datadog-integrations-readme/Microsoft_365_defender.pdf
[2]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf
@@ -146,5 +146,7 @@ Microsoft 365 Defender は、エンドポイント、アイデンティティ、
[8]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
[9]: mailto:datadog.integrations@crestdata.ai
[10]: mailto:datadog-sales@crestdata.ai
+[11]: https://docs.crestdata.ai/datadog-integrations-readme/datadog_ms_defender_365_script.pdf
+[12]: https://github.com/crestdatasystems/datadog-crest_data_microsoft_defender/blob/master/azure_app_registrator.py
---
-このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/crest_data_systems_whylabs.md b/content/ja/integrations/crest_data_systems_whylabs.md
new file mode 100644
index 00000000000..3075b873250
--- /dev/null
+++ b/content/ja/integrations/crest_data_systems_whylabs.md
@@ -0,0 +1,143 @@
+---
+algolia:
+ subcategory: Marketplace インテグレーション
+app_id: crest-data-systems-whylabs
+app_uuid: a53f983e-7d18-4e25-98d9-35cb3ce7c181
+assets:
+ dashboards:
+ WhyLabs - Datasets: assets/dashboards/crest_data_systems_whylabs_datasets.json
+ WhyLabs - Models: assets/dashboards/crest_data_systems_whylabs_models.json
+ WhyLabs Overview: assets/dashboards/crest_data_systems_whylabs_overview.json
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: true
+ metrics:
+ check: cds.whylabs.dataset_metric.classification_prediction_count
+ metadata_path: metadata.csv
+ prefix: cds.whylabs.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 39158566
+ source_type_name: crest_data_systems_whylabs
+ logs:
+ source: crest-data-systems-whylabs
+author:
+ homepage: https://www.crestdata.ai
+ name: Crest Data
+ sales_email: datadog-sales@crestdata.ai
+ support_email: datadog.integrations@crestdata.ai
+ vendor_id: crest-data-systems
+categories:
+- marketplace
+- log collection
+- ai/ml
+custom_kind: integration
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: crest_data_systems_whylabs
+integration_id: crest-data-systems-whylabs
+integration_title: WhyLabs
+integration_version: ''
+is_public: true
+legal_terms:
+ eula: assets/EULA.pdf
+manifest_version: 2.0.0
+name: crest_data_systems_whylabs
+pricing:
+- billing_type: flat_fee
+ includes_assets: true
+ product_id: whylabs
+ short_description: 月額の定額料金。
+ unit_price: 50.0
+public_title: WhyLabs
+short_description: アノマリー フィード、入力/出力、列、セグメント、モデル パフォーマンス メトリクスなどを含むリソース データを収集します。
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Marketplace
+ - Category::Log Collection
+ - Category::AI/ML
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ - Submitted Data Type::Metrics
+ - Submitted Data Type::Events
+ configuration: README.md#Setup
+ description: アノマリー フィード、入力/出力、列、セグメント、モデル パフォーマンス メトリクスなどを含むリソース データを収集します。
+ media:
+ - caption: WhyLabs Overview
+ image_url: images/crest_data_systems_whylabs_overview.png
+ media_type: image
+ - caption: WhyLabs - Models
+ image_url: images/crest_data_systems_whylabs_models.png
+ media_type: image
+ - caption: WhyLabs - Datasets
+ image_url: images/crest_data_systems_whylabs_datasets.png
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: WhyLabs
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## 概要
+[**WhyLabs**][1] は、組織が人工知能 (AI) アプリケーションを監視し、管理し、最適化できるように設計されたプラットフォームです。機械学習 (ML) モデルがライフ サイクル全体を通じて信頼性、透明性、公平性を保てるように、各種ツールを提供します。また、監視と可観測性の手法を活用してモデルのパフォーマンスを追跡し、データ ドリフトやアノマリーといった問題を特定しながら、高品質な予測を維持するためにチームを支援します。
+
+このインテグレーションは、WhyLabs のデータを Datadog に Logs、Metrics、Events として取り込みます:
+
+### メトリクス
+ - 分類のパフォーマンス
+ - 回帰のパフォーマンス
+
+### ログ
+ - リソース
+ - エンティティ スキーマ
+ - 異常値
+ - セグメント
+
+### イベント
+Datadog インテグレーションの設定は、処理を進める前に必須項目がすべて正しく構成されていることを検証します。さらに、データ取り込み中の認証イベントを追跡することで、設定検証後も安全なアクセスと適切なユーザー検証を担保します。
+
+### ダッシュボード
+このインテグレーションには、**すぐに使えるダッシュボードが 3 つ**含まれます:
+
+ 1. **WhyLabs Overview**: プラットフォームを俯瞰できるビューを提供し、機械学習 モデルとデータ セットの監視・管理を支援します。リソース、アノマリー、セグメント、入力、出力、列などの主要領域を強調表示します。
+ 2. **WhyLabs - Models**: モデル サマリー、検出されたアノマリー、セグメント、アクティブ モニター、入力、出力などの重要要素にフォーカスします。本番環境におけるモデルのパフォーマンスと挙動を詳しく確認できます。
+ 3. **WhyLabs - Datasets**: データ セットのデータ タイプの概要を表示し、モデル サマリー、アノマリー、セグメント、アクティブ モニター、列、離散性ステータスといった領域を中心に可視化します。
+
+## サポート
+サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから Crest Data にお問い合わせください。
+
+- サポート用メール: [datadog.integrations@crestdata.ai][9]
+- 営業メール: [datadog-sales@crestdata.ai][10]
+- Web サイト: [crestdata.ai][11]
+- よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][3]
+
+
+[1]: https://whylabs.ai/
+[2]: https://docs.crestdata.ai/datadog-integrations-readme/whylabs.pdf
+[3]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf
+[4]: https://docs.datadoghq.com/ja/agent/?tab=Linux
+[5]: https://docs.datadoghq.com/ja/agent/configuration/agent-configuration-files/
+[6]: https://docs.datadoghq.com/ja/account_management/api-app-keys/
+[7]: https://docs.datadoghq.com/ja/agent/configuration/agent-commands/#start-stop-and-restart-the-agent
+[8]: https://docs.datadoghq.com/ja/agent/configuration/agent-commands/#agent-status-and-information
+[9]: mailto:datadog.integrations@crestdata.ai
+[10]: mailto:datadog-sales@crestdata.ai
+[11]: https://www.crestdata.ai/
+
+---
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/doctor_droid_doctor_droid.md b/content/ja/integrations/doctor_droid_doctor_droid.md
index 08374c9c2e8..e9a6fd592ab 100644
--- a/content/ja/integrations/doctor_droid_doctor_droid.md
+++ b/content/ja/integrations/doctor_droid_doctor_droid.md
@@ -32,14 +32,14 @@ name: doctor_droid_doctor_droid
pricing:
- billing_type: tag_count
includes_assets: false
- metric: ''
+ metric: datadog.marketplace.doctor-droid.usage
product_id: doctor-droid
short_description: 100 クエリあたり 10 ドル (最初の 100 クエリは無料)
- tag: ''
+ tag: クエリ
unit_label: クエリ
unit_price: 10.0
public_title: Doctor Droid
-short_description: 本番環境の問題に対するアラートの強化と自動調査
+short_description: 根本原因分析の自動化、オン コール インテリジェンス、ランブックの自動化
supported_os:
- linux
- windows
@@ -57,15 +57,15 @@ tile:
- Supported OS::macOS
- Offering::Software License
configuration: README.md#Setup
- description: 本番環境の問題に対するアラートの強化と自動調査
+ description: 根本原因分析の自動化、オン コール インテリジェンス、ランブックの自動化
media:
- caption: Doctor Droid の Slack インテグレーションをワークスペースに追加します
image_url: images/1.png
media_type: image
- - caption: モニター設定に移動し、宛先として Doctor Droid の Web フックを追加します。
+ - caption: monitor の送信先として Doctor Droid webhook を追加します
image_url: images/2.png
media_type: image
- - caption: Doctor Droid に既存のプレイブックを接続します。
+ - caption: Doctor Droid の既存プレイブックを任意に接続できます
image_url: images/3.png
media_type: image
- caption: プレイブック分析の結果を、直接受信トレイで受け取れます。
@@ -90,15 +90,17 @@ Doctor Droid は、アラートを強化し、Datadog アカウントを自動
**仕組み**
-1. [Doctor Droid インテグレーション](https://app.datadoghq.com/integrations/doctordroid)をインストールします
+1. [Doctor Droid インテグレーション][1] をインストールします
2. Doctor Droid で調査手順をプレイブックとして定義します (例: 下流のメトリクス確認、最近のデプロイ確認、エラーログ確認などの手順の定義)。
3. Doctor Droid の Web フックをモニターに追加します。
4. モニターがトリガーされた際に、調査の概要と洞察を自動的に取得します。
-## Agent
+## サポート
サポートに関するお問い合わせは、support@drdroid.io までご連絡ください。
+[1]: https://app.datadoghq.com/integrations/doctordroid
+
---
-このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。
\ No newline at end of file
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/elastic_cloud.md b/content/ja/integrations/elastic_cloud.md
index c79268ec679..88c85c6ca37 100644
--- a/content/ja/integrations/elastic_cloud.md
+++ b/content/ja/integrations/elastic_cloud.md
@@ -24,7 +24,7 @@ author:
support_email: help@datadoghq.com
categories:
- モニター
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -73,9 +73,9 @@ Elastic Cloud とインテグレーションすることで、ホスティング
#### メトリクスの収集
-デプロイ用に読み取り専用の Elastic Cloud ユーザーを作成し、[Elastic Cloud インテグレーションタイル](https://app.datadoghq.com/account/settings#integrations/elastic-cloud)にユーザー資格情報を入力します。
+デプロイメント用に読み取り専用の Elastic Cloud ユーザーを作成し、ユーザーの認証情報を [Elastic Cloud インテグレーション タイル][1] に入力します。
-1. すべての [Elastic Cloud デプロイ][1]にアクセスします。
+1. すべての [Elastic Cloud デプロイメント][2] にアクセスします。
2. デプロイ名を選択します。
3. **Management** の下にある **Manage permissions** をクリックします。
4. **Roles** タブで、**Create role** をクリックしてロールを作成します。
@@ -91,7 +91,7 @@ Elastic Cloud とインテグレーションすることで、ホスティング
4. **create user** をクリックします。
次の手順で Elastic Cloud デプロイの URL を取得します。
-1. すべての [Elastic Cloud デプロイ][1]にアクセスします。
+1. すべての [Elastic Cloud デプロイメント][2] にアクセスします。
2. デプロイを選択します。
3. **Applications** の中から **Elasticsearch** を探します。
4. **Copy Endpoint** をクリックして、デプロイの URL をコピーします。
@@ -125,17 +125,17 @@ Index stats
Elastic Cloud では、セキュリティ対策として、IP アドレスか CIDR ブロックによるトラフィックのフィルタリングが可能です。これにより、デプロイへのアクセス方法を制限できます。Datadog がデプロイからメトリクスを取得できるように、特定の IP アドレスプレフィックスを許可する必要があります。
-トラフィックフィルターのルールセットを作成するには、こちらの[手順][2]に従ってください。ルールセットが作成できたら、ルールセットをデプロイと関連付けます。
+トラフィック フィルター ルール セットを作成するには、次の [手順][3] に従ってください。作成後、そのルール セットをデプロイメントに関連付けます。
Datadog の IP プレフィックスを含める方法
-1. Datadog の IP 範囲を[こちら][3]で確認します。
+1. Datadog の IP 範囲は [こちら][4] を参照してください。
2. **webhooks** の各プレフィックスを **source** としてトラフィックルールに入力します。
## 収集データ
### メトリクス
-{{< get-metrics-from-git "elastic-cloud" >}}
+{{< get-metrics-from-git "elastic_cloud" >}}
### Logs
@@ -152,15 +152,16 @@ Elastic Cloud インテグレーションには、サービスのチェック機
## トラブルシューティング
-ご不明な点は、[Datadog のサポートチーム][5]までお問い合わせください。
+ご不明な点は、[Datadog のサポートチーム][6]までお問合せください。
-[1]: https://cloud.elastic.co/deployments
-[2]: https://www.elastic.co/guide/en/cloud-enterprise/current/ece-traffic-filtering-ip.html
-[3]: https://docs.datadoghq.com/ja/api/latest/ip-ranges/
-[4]: https://github.com/DataDog/integrations-internal-core/blob/main/elastic_cloud/metadata.csv
-[5]: https://docs.datadoghq.com/ja/help
+[1]: https://app.datadoghq.com/account/settings#integrations/elastic-cloud
+[2]: https://cloud.elastic.co/deployments
+[3]: https://www.elastic.co/guide/en/cloud-enterprise/current/ece-traffic-filtering-ip.html
+[4]: https://docs.datadoghq.com/ja/api/latest/ip-ranges/
+[5]: https://github.com/DataDog/integrations-internal-core/blob/main/elastic_cloud/metadata.csv
+[6]: https://docs.datadoghq.com/ja/help
\ No newline at end of file
diff --git a/content/ja/integrations/flagsmith_flagsmith.md b/content/ja/integrations/flagsmith_flagsmith.md
index 241d09e3aba..b6e421b9b6b 100644
--- a/content/ja/integrations/flagsmith_flagsmith.md
+++ b/content/ja/integrations/flagsmith_flagsmith.md
@@ -14,7 +14,7 @@ categories:
- 構成 & デプロイ
- マーケットプレイス
- テスト
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -119,5 +119,6 @@ Flagsmith のフラグを既存の Datadog ダッシュボードから直接表
[3]: https://docs.flagsmith.com/integrations/datadog
[4]: https://flagsmith.com/contact-us/
[5]: https://www.datadoghq.com/blog/flagsmith-datadog-marketplace/
+
---
-このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/guide/aws-organizations-setup.md b/content/ja/integrations/guide/aws-organizations-setup.md
index 032350c4f5b..7e5c358da67 100644
--- a/content/ja/integrations/guide/aws-organizations-setup.md
+++ b/content/ja/integrations/guide/aws-organizations-setup.md
@@ -30,8 +30,8 @@ Datadog CloudFormation StackSet は、以下のステップを実行します。
1. AWS 組織または組織単位の下にあるすべてのアカウントで Datadog AWS CloudFormation Stack をデプロイします。
2. 対象アカウントに必要な IAM ロールとポリシーを自動作成します。
3. アカウント内の AWS リソースから、AWS CloudWatch のメトリクスやイベントの取り込みを自動的に開始します。
-4. オプションで、AWS インフラストラクチャーのメトリクス収集を無効にします。これは、Cloud Cost Management (CCM) または Cloud Security Management Misconfigurations (CSM Misconfigurations) 固有のユースケースに有用です。
-5. オプションで、CSM Misconfigurations を構成して、AWS アカウントのリソース誤構成を監視します。
+4. (任意) AWS インフラストラクチャーのメトリクス収集を無効化します。Cloud Cost Management (CCM) または Cloud Security Misconfigurations の特定のユース ケースで役立ちます。
+5. (任意) AWS アカウント内のリソース誤構成を監視するよう、Cloud Security Misconfigurations を構成します。
**注**: StackSet では、AWS アカウントでのログ転送は設定されません。ログを設定するには、[ログ収集][2]のガイドの手順に従ってください。
@@ -58,8 +58,8 @@ Datadog AWS インテグレーション構成ページから Template URL をコ
- Datadog AWS インテグレーション構成ページで Datadog APP キーを選択し、StackSet の `DatadogAppKey` パラメーターに使用します。
- *オプションで:*
- a. [Cloud Security Management Misconfigurations][5] (CSM Misconfigurations) を有効にして、クラウド環境、ホスト、コンテナをスキャンし、誤構成やセキュリティリスクを検出します。
- b. AWS インフラストラクチャーを監視したくない場合は、メトリクス収集を無効にします。これは、[Cloud Cost Management][6] (CCM) または [CSM Misconfigurations][5] 固有のユースケースにのみ推奨されます。
+ a. [Cloud Security Misconfigurations][5] を有効化し、クラウド環境、ホスト、コンテナをスキャンして設定不備とセキュリティ リスクを検出します。
+ b. AWS インフラストラクチャーを監視しない場合は、メトリクス収集を無効化します。これは [Cloud Cost Management][6] (CCM) または [Cloud Security Misconfigurations][5] の特定のユース ケースでのみ推奨されます。
3. **StackSet オプションを構成する**
StackSet が一度に 1 つの操作を実行するように、**Execution configuration** オプションを `Inactive` にしておきます。
@@ -80,6 +80,11 @@ StackSet が一度に 1 つの操作を実行するように、**Execution confi
スタックが作成されたら、Datadog の AWS インテグレーション構成ページに戻り、**Done** をクリックします。新しくインテグレーションされた AWS アカウントからのメトリクスやイベントレポートが表示されるまで、数分かかる場合があります。
+6. *(任意)* **AWS 管理アカウントを統合**
+
+ AWS の [Service-managed permissions][10] による制約のため、この StackSet 設定の後も AWS 管理アカウントは自動デプロイされません。
+ [Datadog-Amazon Cloudformation][9] の手順に従って AWS 管理アカウントを統合してください。
+
## 個々の AWS サービスに対するインテグレーションを有効にする
@@ -104,4 +109,6 @@ StackSet では、AWS アカウントでのログ転送は設定されません
[5]: /ja/security/cloud_security_management/setup/
[6]: https://docs.datadoghq.com/ja/cloud_cost_management/?tab=aws
[7]: https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/stacksets-delete.html
-[8]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/
\ No newline at end of file
+[8]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/
+[9]: https://docs.datadoghq.com/ja/integrations/guide/amazon_cloudformation/
+[10]: https://docs.aws.amazon.com/AWSCloudFormation/latest/APIReference/API_DeploymentTargets.html
\ No newline at end of file
diff --git a/content/ja/integrations/kitepipe_atomwatch.md b/content/ja/integrations/kitepipe_atomwatch.md
index 948d0ae2a1d..d28980fe809 100644
--- a/content/ja/integrations/kitepipe_atomwatch.md
+++ b/content/ja/integrations/kitepipe_atomwatch.md
@@ -9,6 +9,9 @@ assets:
AtomWatch Boomi Compute Monitoring: assets/dashboards/boomi_compute_monitoring2.json
AtomWatch Boomi Workload Monitoring: assets/dashboards/boomi_workload_monitoring2.json
AtomWatch Overview: assets/dashboards/atomwatch_overview.json
+ Boomi JMX Monitoring - Forked: assets/dashboards/jmx_forked.json
+ Boomi JMX Monitoring - Management JVM: assets/dashboards/jmx_management_jvm.json
+ Boomi JMX Monitoring - Non-Forked: assets/dashboards/jmx_nonforked.json
integration:
auto_install: false
configuration:
@@ -24,19 +27,22 @@ assets:
source_type_id: 10355
source_type_name: AtomWatch
monitors:
- AtomWatch is Down: assets/monitors/atomwatch_down.json
- 'AtomWatch: Boomi Cluster Node "View File" is Missing': assets/monitors/cluster_view_file_missing.json
- 'AtomWatch: Boomi Cluster Node "View File" is Too Old': assets/monitors/cluster_view_file_too_old.json
- 'AtomWatch: Boomi Cluster Problem': assets/monitors/cluster_view_file_problem.json
- 'AtomWatch: Execution Duration Anomaly': assets/monitors/execution_duration_anomaly.json
- 'AtomWatch: Failure calling Boomi Platform API': assets/monitors/failed_boomi_platform_api_call.json
- 'AtomWatch: Infrastructure - API Gateway Node CPU Usage High': assets/monitors/api_gw_node_cpu.json
- 'AtomWatch: Infrastructure - API Gateway Node Disk Usage High': assets/monitors/api_gw_node_disk.json
- 'AtomWatch: Infrastructure - API Gateway Node Memory Usage High': assets/monitors/api_gw_node_ram.json
- 'AtomWatch: Infrastructure - Molecule Node CPU Usage High': assets/monitors/molecule_node_cpu.json
- 'AtomWatch: Infrastructure - Molecule Node Disk Usage High': assets/monitors/molecule_node_disk.json
- 'AtomWatch: Infrastructure - Molecule Node Memory Usage High': assets/monitors/molecule_node_ram.json
- 'AtomWatch: Runtime Online Status': assets/monitors/boomi_online_status.json
+ API Gateway node CPU usage is high: assets/monitors/api_gw_node_cpu.json
+ API Gateway node Disk usage is high: assets/monitors/api_gw_node_disk.json
+ API Gateway node memory usage is high: assets/monitors/api_gw_node_ram.json
+ AtomWatch is down: assets/monitors/atomwatch_down.json
+ Boomi "View File" is missing: assets/monitors/cluster_view_file_missing.json
+ Boomi "view file" is too old: assets/monitors/cluster_view_file_too_old.json
+ Boomi "view file" reports a problem: assets/monitors/cluster_view_file_problem.json
+ Boomi API calls from more than one node: assets/monitors/multiple_node_api_calls.json
+ Boomi Molecule node is at high CPU usage: assets/monitors/molecule_node_cpu.json
+ Boomi Molecule node is running out of disk space: assets/monitors/molecule_node_disk.json
+ Boomi runtime is reported as offline: assets/monitors/boomi_online_status.json
+ Cannot call the Boomi Platform API: assets/monitors/failed_boomi_platform_api_call.json
+ Execution duration is anomalous: assets/monitors/execution_duration_anomaly.json
+ JVM Runtime low memory: assets/monitors/jmx_low_mem.json
+ JVM Runtime out of memory: assets/monitors/jmx_out_of_mem.json
+ Molecule node memory usage is high: assets/monitors/molecule_node_ram.json
author:
homepage: https://www.kitepipe.com
name: Kitepipe
@@ -50,7 +56,7 @@ categories:
- ログの収集
- マーケットプレイス
- notifications
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -110,6 +116,9 @@ tile:
- caption: エラーとなった Boomi プロセスのトップリストとグラフ。
image_url: images/error_monitoring.png
media_type: image
+ - caption: JMX 監視をサポートします。
+ image_url: images/jmx_monitoring.png
+ media_type: image
overview: README.md#Overview
resources:
- resource_type: documentation
@@ -128,7 +137,7 @@ tile:
Kitepipe の AtomWatch は Agent ベースのインテグレーションで、Boomi プロセス、クラスターノード、関連インフラストラクチャーからメトリクスを収集し、Datadog と Boomi の両方のお客様にインテグレーションの健全性を知らせることができます。
-AtomWatch version 1.0 contains 4 dashboards, 13 custom metrics, and 13 monitors that report on Boomi execution statistics, cluster status, and infrastructure health. These metrics are available to Datadog and Boomi customers for extended time-trending analysis (over the standard of 30 days for Boomi Process Reporting availability).
+AtomWatch バージョン 1.2 には 7 つのダッシュボード、17 個のカスタム メトリクス、16 個のモニターが含まれており、Boomi の実行統計、クラスター ステータス、JMX 監視、インフラの健全性をレポートします。これらのメトリクスは、Datadog と Boomi のお客様が長期のトレンド分析に利用できます (Boomi Process Reporting の標準的な提供期間である 30 日を超える期間)。
AtomWatch を購入した Datadog のお客様は、Boomi Java Runtime を Atom または Molecule のいずれかの構成で管理する必要があります。Kitepipe では、14 日間の無料トライアルに 1 時間のセットアップと構成セッションが含まれています。
@@ -142,7 +151,7 @@ Datadog のサービス AtomWatch は、AWS における Boomi マネージド
### ログ収集
-このインテグレーションは、お客様に代わって Boomi プラットフォームへの API 呼び出しを行い、実行レコードを取得し、Datadog にログとして送信します。
+このインテグレーションは、ユーザーに代わって Boomi Platform へ API 呼び出しを行い、実行レコードを取得して Datadog にログとして送信します。また、オプションで、進行中の実行状況と JMX 経由の JVM テレメトリを監視し、同様に Datadog にログとして送信できます。どの Boomi プロセスがどの JVM で実行されているかを確認でき、メモリ使用量、ガベージ コレクション、スレッド数などの関連メトリクスも把握できます。
### イベント
@@ -167,7 +176,8 @@ Kitepipe の AtomWatch のサポート時間は、米国とカナダのタイム
お役に立つドキュメント、リンクや記事:
- [AtomWatch ドキュメント][9]
-- [Monitor your Boomi integrations with Kitepipe's offering in the Datadog Marketplace][12]
+- [Datadog Marketplace の Kitepipe 提供機能で Boomi インテグレーションを監視する][12]
+- [Boomi で JMX を有効化する][13]
[1]: https://app.datadoghq.com/event/explorer
[2]: https://help.boomi.com/bundle/atomsphere_platform/page/int-Adding_API_tokens.html
@@ -177,10 +187,11 @@ Kitepipe の AtomWatch のサポート時間は、米国とカナダのタイム
[6]: https://help.boomi.com/bundle/integration/page/r-atm-Startup_Properties_panel.html
[7]: https://help.boomi.com/bundle/integration/page/r-atm-Cluster_Status_panel.html
[8]: https://help.boomi.com/bundle/api_management/page/api-API_Gateway_settings.html
-[9]: https://atomwatch.refined.site/space/CS/11108353
+[9]: https://atomwatch.kitepipe.com/space/CS/11108353
[10]: https://www.kitepipe.com/
[11]: mailto:AtomWatch.Support@kitepipe.com
[12]: https://www.datadoghq.com/blog/kitepipe-datadog-marketplace/
+[13]: https://help.boomi.com/docs/Atomsphere/Integration/Integration%20management/t-atm-Enabling_remote_JMX_on_an_Atom_1a1625d0-330d-43c6-a765-42502d7768ec
---
-このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/lambdatest_license.md b/content/ja/integrations/lambdatest_license.md
index 8beefcedba9..b3623387178 100644
--- a/content/ja/integrations/lambdatest_license.md
+++ b/content/ja/integrations/lambdatest_license.md
@@ -17,7 +17,7 @@ categories:
- マーケットプレイス
- クラウド
- コラボレーション
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -119,5 +119,6 @@ Datadog Marketplace を通じて、LambdaTest のサブスクリプションを
[3]: mailto:support@lambdatest.com
[4]: https://www.lambdatest.com/
[5]: https://www.datadoghq.com/blog/monitor-user-bugs-with-lambdatest/
+
---
-このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/ping_federate.md b/content/ja/integrations/ping_federate.md
new file mode 100644
index 00000000000..b81657bd58a
--- /dev/null
+++ b/content/ja/integrations/ping_federate.md
@@ -0,0 +1,192 @@
+---
+app_id: ping-federate
+app_uuid: 1deb5e7c-e9a9-4566-8d78-12c92d1baff9
+assets:
+ dashboards:
+ PingFederate - Admin: assets/dashboards/ping_federate_admin.json
+ PingFederate - Audit: assets/dashboards/ping_federate_audit.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 20005886
+ source_type_name: PingFederate
+ logs:
+ source: ping-federate
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- log collection
+- security
+custom_kind: integration
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/ping_federate/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: ping_federate
+integration_id: ping-federate
+integration_title: PingFederate
+integration_version: 2.0.0
+is_public: true
+manifest_version: 2.0.0
+name: ping_federate
+public_title: PingFederate
+short_description: PingFederate ログを可視化して洞察を得る
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Log Collection
+ - Category::Security
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ configuration: README.md#Setup
+ description: PingFederate ログを可視化して洞察を得る
+ media:
+ - caption: PingFederate - Audit
+ image_url: images/ping_federate_audit.png
+ media_type: image
+ - caption: PingFederate - Admin
+ image_url: images/ping_federate_admin.png
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: PingFederate
+---
+
+
+## 概要
+
+[PingFederate][1] は企業向けのアイデンティティ フェデレーション サーバーで、安全なシングル サインオン (SSO) とマルチ ファクタ認証 (MFA) に加え、フェデレーション型のアイデンティティ管理を提供します。さまざまなアプリケーションやサービスにまたがって、安全に連携できます。
+
+
+このインテグレーションは、admin と audit のログをエンリッチし、可視化します。あらかじめ用意されたダッシュボードを使って、admin と audit のログ分析をすぐに始められ、より詳細なインサイトを把握できます。
+
+## セットアップ
+
+### インストール
+
+PingFederate インテグレーションをインストールするには、次の Agent インストール コマンドを実行し、続けて以下の手順を行ってください。詳細は [Integration Management][2] ドキュメントを参照してください。
+
+**注**: Agent バージョンが 7.57.0 以上の場合、この手順は不要です。
+
+Linux コマンド
+ ```shell
+ sudo -u dd-agent -- datadog-agent integration install datadog-ping_federate==1.0.0
+ ```
+
+
+### 構成
+
+### ログ収集
+
+1. Datadog Agent でのログ収集は、デフォルトで無効になっています。以下のように、`datadog.yaml` ファイルでこれを有効にします。
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. `ping_federate.d/conf.yaml` ファイルに次の設定ブロックを追加すると、PingFederate ログの収集を開始できます。
+
+ ```yaml
+ logs:
+ - type: file
+ path: /pingfederate/log/admin.log
+ source: ping-federate
+ service: admin
+
+ - type: file
+ path: /pingfederate/log/audit.log
+ source: ping-federate
+ service: audit
+ ```
+
+ **注**: 以下の点を必ず確認してください。
+
+ 1. `` は、PingFederate のインストール先に置き換えてください。
+
+ 2. PingFederate の出力先のデフォルト パスは `/pingfederate/log` で、`filenames` は `admin.log` と `audit.log` です。デフォルトのパスやファイル名を変更している場合は、`conf.yaml` の `path` パラメータもそれに合わせて更新してください。
+
+
+3. [Agent を再起動します][3]。
+### 検証
+
+[Agent の status サブ コマンドを実行][4] し、Checks セクションに `ping-federate` が表示されることを確認します。
+
+## 収集データ
+
+### Logs
+
+PingFederate インテグレーションでは、次の種類のログを収集します。
+
+| 形式 | イベントタイプ |
+| --------- | -------------- |
+| CEF | admin, audit|
+
+### 対応ログ フォーマット
+
+#### 管理者
+デフォルトのログ フォーマットは次のとおりです。
+
+```
+%d | %X{user} | %X{roles} | %X{ip} | %X{component} | %X{event} | %X{eventdetailid} | %m%n
+```
+
+#### 監査
+デフォルトのログ フォーマットは次のとおりです。
+
+```
+%d| %X{trackingid}| %X{event}| %X{subject}| %X{ip} | %X{app}| %X{connectionid}| %X{protocol}| %X{host}| %X{role}| %X{status}| %X{adapterid}| %X{description}| %X{responsetime} %n
+```
+
+追加フィールドのログ フォーマットは次のとおりです。
+
+```
+%d| %X{trackingid}| %X{event}| %X{subject}| %X{ip} | %X{app}| %X{connectionid}| %X{protocol}| %X{host}| %X{role}| %X{status}| %X{adapterid}| %X{description}| %X{responsetime}| %X{attrackingid}| %X{attributes}| %X{granttype}| %X{initiator}| %X{inmessagetype}| %X{inresponseto}| %X{localuserid}| %X{requestid}| %X{requeststarttime}| %X{responseid}| %X{stspluginid}| %X{targetsessionid}| %X{authenticationsourceid}| %X{validatorid}| %X{virtualserverid}| %X{connectionname}| %X{httprequestid}%n
+```
+
+
+**注**: 追加フィールドは、上記の順序で設定されている場合にのみサポートされます。また、いずれかのフィールドが設定されていない場合、このインテグレーションでは追加フィールドをサポートしません。
+
+### メトリクス
+
+PingFederate には、メトリクスは含まれません。
+
+### イベント
+
+PingFederate インテグレーションには、イベントは含まれません。
+
+### サービスチェック
+
+PingFederate インテグレーションには、サービス チェックは含まれません。
+
+## トラブルシューティング
+
+ログファイルを監視している際に **Permission denied** エラーが表示される場合は、`dd-agent` ユーザーに対してファイルの読み取り権限を付与してください。
+
+ ```shell
+ sudo chown -R dd-agent:dd-agent /pingfederate/log/admin.log
+ sudo chown -R dd-agent:dd-agent /pingfederate/log/audit.log
+ ```
+## サポート
+
+さらなるサポートが必要な場合は、[Datadog サポート][5] までお問い合わせください。
+
+[1]: https://docs.pingidentity.com/r/en-us/pingfederate-112/pf_pingfederate_landing_page
+[2]: https://docs.datadoghq.com/ja/agent/guide/integration-management/?tab=linux#install
+[3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
+[5]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/sonatype_nexus.md b/content/ja/integrations/sonatype_nexus.md
new file mode 100644
index 00000000000..3c54c9d6830
--- /dev/null
+++ b/content/ja/integrations/sonatype_nexus.md
@@ -0,0 +1,180 @@
+---
+app_id: sonatype-nexus
+app_uuid: 6cec5ac3-a686-4408-936d-26f19fa6763a
+assets:
+ dashboards:
+ Sonatype Nexus Instance Health: assets/dashboards/sonatype_nexus_instance_health.json
+ Sonatype Nexus Metrics: assets/dashboards/sonatype_nexus_metrics.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: true
+ metrics:
+ check:
+ - sonatype_nexus.analytics.available_cpus
+ - sonatype_nexus.status.available_cpus_health
+ metadata_path: metadata.csv
+ prefix: sonatype_nexus.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 34928997
+ source_type_name: sonatype_nexus
+ monitors:
+ High Number of Failed Unique User Authentication Detected: assets/monitors/high_number_of_failed_unique_user_authentication_detected.json
+ High Percentage of JVM Heap Memory Usage Detected: assets/monitors/high_percentage_of_jvm_heap_memory_usage_detected.json
+ Unhealthy Available CPUs Detected: assets/monitors/unhealthy_available_cpus_detected.json
+ Unhealthy Blob Stores Detected: assets/monitors/unhealthy_blob_stores_detected.json
+ Unhealthy Thread Deadlock Detected: assets/monitors/unhealthy_thread_deadlock_detected.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- モニター
+custom_kind: integration
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/sonatype_nexus/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: sonatype_nexus
+integration_id: sonatype-nexus
+integration_title: Sonatype Nexus
+integration_version: 1.1.0
+is_public: true
+manifest_version: 2.0.0
+name: sonatype_nexus
+public_title: Sonatype Nexus
+short_description: Sonatype Nexus の分析指標とインスタンス ヘルス データを可視化します。
+supported_os:
+- linux
+- windows
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Category::Metrics
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ configuration: README.md#Setup
+ description: Sonatype Nexus の分析指標とインスタンス ヘルス データを可視化します。
+ media:
+ - caption: Sonatype Nexus Instance Health
+ image_url: images/sonatype_nexus_instance_health.png
+ media_type: image
+ - caption: Sonatype Nexus Metrics
+ image_url: images/sonatype_nexus_metrics_1.png
+ media_type: image
+ - caption: Sonatype Nexus Metrics
+ image_url: images/sonatype_nexus_metrics_2.png
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Sonatype Nexus
+---
+
+
+## 概要
+
+Sonatype Nexus は、ソフトウェア開発ライフサイクル全体を通して、ソフトウェア コンポーネントと依存関係を管理するための代表的なリポジトリ管理ソリューションです。幅広い開発言語やフォーマットに対応しており、DevOps や継続的インテグレーションと継続的デリバリー (CI/CD) パイプラインの中核として活用できます。
+
+Sonatype Nexus インテグレーションは、Sonatype Nexus から分析指標とインスタンス ヘルス ステータスのメトリクスを収集し、包括的に分析できるよう Datadog に送信します。
+
+## セットアップ
+
+### インストール
+
+Sonatype Nexus チェックは [Datadog Agent パッケージ][1] に含まれています。追加のインストールは不要です。
+
+### Sonatype Nexus から API 認証情報を取得する
+
+1. **Administrator** アカウント、または **nx-metrics-all** 権限を持つユーザーの `Username` と `Password`
+
+2. リポジトリ インスタンスの `Server URL` (例: https://123.123.123.123:8081)
+
+### Sonatype Nexus アカウントを Datadog Agent に接続する
+
+1. Copy the `conf.yaml.example` file.
+
+ ```sh
+ cp /etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml.example /etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml
+ ```
+
+2. `/etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml` ファイルを編集し、以下の設定を追加します。
+
+ ```yaml
+ instances:
+
+ ## @param username - string - required
+ ## Username of Sonatype Nexus instance
+ #
+ - username:
+
+ ## @param password - string - required
+ ## Password of Sonatype Nexus instance
+ #
+ password:
+
+ ## @param server_url - string - required
+ ## Sonatype Nexus server url
+ #
+ server_url:
+
+ ## @param min_collection_interval - number - required
+ ## This changes the collection interval of the check. For more information, see:
+ ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval
+ #
+ min_collection_interval: 600
+ ```
+* Sonatype Nexus を複数インスタンスで設定している場合の `conf.yaml` の例:
+
+ ```yaml
+ instances:
+ - min_collection_interval: 1800
+ username:
+ password:
+ server_url:
+ - min_collection_interval: 1800
+ username:
+ password:
+ server_url:
+ ```
+
+3. [Agent を再起動します][2]。
+
+### 検証
+
+- [Agent の status サブコマンド][3] を実行し、Checks セクションで `sonatype_nexus` を確認します。
+
+## 収集データ
+
+### ログ
+Sonatype Nexus インテグレーションにはログの収集は含まれません。
+
+### メトリクス
+
+Sonatype Nexus インテグレーションは、分析指標とインスタンス ヘルス ステータスのメトリクスを収集して Datadog に転送します。
+
+{{< get-metrics-from-git "sonatype_nexus" >}}
+
+### イベント
+
+Sonatype Nexus インテグレーションは `sonatype_nexus.authentication_validation` イベントを Datadog に転送します。
+
+### サービスチェック
+
+このインテグレーションが提供するサービス チェックの一覧は、 [service_checks.json][4] を参照してください。
+
+## サポート
+
+追加のサポートが必要な場合は、 [Datadog サポート][5] へお問い合わせください。
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent
+[3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
+[4]: https://github.com/DataDog/integrations-core/blob/master/sonatype_nexus/assets/service_checks.json
+[5]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/statuspage.md b/content/ja/integrations/statuspage.md
index d045c56b04d..8e59afc2fb0 100644
--- a/content/ja/integrations/statuspage.md
+++ b/content/ja/integrations/statuspage.md
@@ -19,7 +19,7 @@ categories:
- incidents
- issue tracking
- notifications
-custom_kind: integration
+custom_kind: インテグレーション
dependencies: []
display_on_public_website: true
draft: false
@@ -50,9 +50,11 @@ tile:
## 概要
+
[Atlassian Statuspage][1] は、Datadog でサードパーティのサービスから報告されたインシデントを確認および作成できる、ステータスおよびインシデント管理ツールです。
Statuspage とインテグレーションすることで、以下のことが可能になります。
+
- Statuspage のインシデントを作成、更新、および Datadog のインシデントにリンクします。
- Datadog インシデントに対応する Statuspage インシデントを参照します。
- インシデントを独自のメトリクスやイベントと相関付けます。
@@ -62,27 +64,29 @@ Statuspage とインテグレーションすることで、以下のことが可
### インストール
#### Statuspage アカウントの接続
+
{{% site-region region="gov" %}}
-
+
+
Incident Management インテグレーションは、{{< region-param key=dd_datacenter code="true" >}} サイトではサポートされていません。
{{% /site-region %}}
Statuspage アカウントを接続して、Incident Management から Statuspage インシデントを作成および更新します。
-{{< img src="integrations/statuspage/integrations_statuspage_incident_modal.png" alt="ステータスインシデント作成モーダル" popup="true" style="width:60%;">}}
+![Status Incident Create Modal][2]
-1. [アカウント][2]にログインします。
+1. [アカウント][3] にログインします。
2. 画面右上のアバターをクリックして、ユーザーメニューにアクセスします。
3. API 情報をクリックします。
4. `Organization API keys` の下で API キーを作成するか、既存のものをコピーします。
-5. [インテグレーションタイル][3]の `API key` フィールドに API キーを入力します。
+5. [インテグレーション タイル][4] の `API key` フィールドに API キーを入力します。
#### インシデントと独自のメトリクスおよびイベントを相関付ける
Statuspage のイベントを独自のメトリクスやイベントと相関付けて分析し、環境に影響を与える可能性のあるものに対して通知を受けるようにモニターをセットアップすることができます。インテグレーションのこの部分では、自身の Statuspage アカウントは必要ありません。
-[インテグレーションタイル][3]の **Statuspage URLs** セクションに、監視したいサービスの Statuspage URL を入力します。ページに関連付けたいカスタムタグを入力します。
+[インテグレーション タイル][4] の **Statuspage URLs** セクションで、監視したいサービスの Statuspage URL を入力します。必要に応じて、ページに関連付けるカスタム タグも入力します。
## 収集データ
@@ -92,7 +96,13 @@ Statuspage インテグレーションには、メトリクスは含まれてい
### イベント
-Statuspage インテグレーションは、構成されたステータスページから Datadog イベントを取り込み、これによりこうしたイベントをメトリクスと相関付けたり、[これらのイベントに基づいてアラートを送信する][4]ことができます。
+Statuspage インテグレーションは、設定した Statuspage から Datadog イベントを取り込み、メトリクスと突き合わせて分析できます。さらに、 [これらのイベントに基づいてアラートを送信する][5] ことも可能です。
+
+### 設定
+
+このインテグレーションは `http://` と `https://` のどちらの URL でも設定できます。ただし、TLS が検証済みの `https://` URL のみが、コンプライアンス要件に厳格な環境で求められる基準に適合します。`http://` URL でも動作しますが、コンプライアンス基準は満たしません。
+
+コンプライアンス要件が厳しい環境では、 `http://` ではなく `https://` URL を使用してください。
### サービスチェック
@@ -100,14 +110,15 @@ Statuspage インテグレーションには、サービスのチェック機能
## トラブルシューティング
-ご不明な点は、[Datadog のサポートチーム][5]までお問い合わせください。
+ご不明な点は、[Datadog のサポートチーム][6]までお問合せください。
## その他の参考資料
{{< partial name="whats-next/whats-next.html" >}}
[1]: https://www.atlassian.com/software/statuspage
-[2]: https://manage.statuspage.io/login
-[3]: https://app.datadoghq.com/integrations/statuspage
-[4]: https://docs.datadoghq.com/ja/monitors/monitor_types/event/
-[5]: https://docs.datadoghq.com/ja/help/
+[2]: images/integrations_statuspage_incident_modal.png
+[3]: https://manage.statuspage.io/login
+[4]: https://app.datadoghq.com/integrations/statuspage
+[5]: https://docs.datadoghq.com/ja/monitors/monitor_types/event/
+[6]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/integrations/tekton.md b/content/ja/integrations/tekton.md
new file mode 100644
index 00000000000..6b3ef99b4b1
--- /dev/null
+++ b/content/ja/integrations/tekton.md
@@ -0,0 +1,135 @@
+---
+app_id: tekton
+app_uuid: 4e8f129e-1c9b-4078-a966-f0099dbf9465
+assets:
+ dashboards:
+ Tekton Overview: assets/dashboards/overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check:
+ - tekton.pipelines_controller.go.alloc
+ - tekton.triggers_controller.go.alloc
+ metadata_path: metadata.csv
+ prefix: tekton.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 5667413
+ source_type_name: Tekton
+ monitors:
+ Increasing number of failed PipelineRuns: assets/monitors/increasing_failed_pipelineruns.json
+ Increasing number of failed TaskRuns: assets/monitors/increasing_failed_taskruns.json
+ TaskRuns are throttled: assets/monitors/throttled_taskruns.json
+ saved_views:
+ tekton_errors: assets/saved_views/tekton_errors.json
+ tekton_overview: assets/saved_views/tekton_overview.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com (日本語対応)
+ support_email: help@datadoghq.com
+categories:
+- ログの収集
+- 開発ツール
+custom_kind: インテグレーション
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/tekton/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: tekton
+integration_id: tekton
+integration_title: Tekton
+integration_version: 2.2.0
+is_public: true
+manifest_version: 2.0.0
+name: tekton
+public_title: Tekton
+short_description: Datadog で Tekton のメトリクスをまとめて追跡できます。
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Log Collection
+ - Category::Developer Tools
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Datadog で Tekton のメトリクスをまとめて追跡できます。
+ media: []
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Tekton
+---
+
+
+
+
+## 概要
+
+このチェックは Datadog Agent を介して [Tekton][1] を監視します。Tekton は、CI/CD システムを構築するための強力で柔軟なオープン ソース フレームワークで、クラウド プロバイダーやオンプレミス環境をまたいで、ビルド、テスト、デプロイを行えるようにします。
+
+## セットアップ
+
+ホストで実行されている Agent 用にこのチェックをインストールおよび構成する場合は、以下の手順に従ってください。コンテナ環境の場合は、[オートディスカバリーのインテグレーションテンプレート][2]のガイドを参照してこの手順を行ってください。
+
+### インストール
+
+Agent リリース 7.53.0 以降、Tekton チェックは [Datadog Agent][3] パッケージに同梱されています。サーバー側で追加のインストールは不要です。
+
+このチェックは [OpenMetrics][4] を使用し、Tekton が公開する OpenMetrics エンドポイントからメトリクスを収集します。動作には Python 3 が必要です。
+
+### 構成
+
+1. Tekton のパフォーマンス データを収集するには、Agent の設定ディレクトリ直下にある `conf.d/` フォルダ内の `tekton.d/conf.yaml` ファイルを編集します。利用可能な設定オプションの一覧は、[サンプル tekton.d/conf.yaml][5] を参照してください。
+
+2. [Agent を再起動します][6]。
+
+### 検証
+
+[Agent の status サブコマンドを実行][7] し、Checks セクションで `tekton` を確認します。
+
+## 収集データ
+
+### メトリクス
+{{< get-metrics-from-git "tekton" >}}
+
+
+### イベント
+
+Tekton インテグレーションには、イベントは含まれません。
+
+### サービスチェック
+{{< get-service-checks-from-git "tekton" >}}
+
+
+## トラブルシューティング
+
+ご不明な点は、[Datadog のサポートチーム][10]までお問合せください。
+
+## その他の参考資料
+
+お役に立つドキュメント、リンクや記事:
+
+- [コンテナネイティブな CI/CD パイプラインの健全性とパフォーマンスを監視する][11]
+
+
+[1]: https://tekton.dev/
+[2]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://docs.datadoghq.com/ja/integrations/openmetrics/
+[5]: https://github.com/DataDog/integrations-core/blob/master/tekton/datadog_checks/tekton/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[7]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://github.com/DataDog/integrations-core/blob/master/tekton/metadata.csv
+[9]: https://github.com/DataDog/integrations-core/blob/master/tekton/assets/service_checks.json
+[10]: https://docs.datadoghq.com/ja/help/
+[11]: https://www.datadoghq.com/blog/container-native-ci-cd-integrations/
\ No newline at end of file
diff --git a/content/ja/integrations/tenable_io.md b/content/ja/integrations/tenable_io.md
new file mode 100644
index 00000000000..a80edf0471d
--- /dev/null
+++ b/content/ja/integrations/tenable_io.md
@@ -0,0 +1,121 @@
+---
+app_id: tenable-io
+app_uuid: 18788ece-f752-4584-a4e9-6652eaad80b5
+assets:
+ dashboards:
+ Tenable.io - Activity Summary: assets/dashboards/tenable_io_activity_summary.json
+ Tenable.io - Vulnerability Summary: assets/dashboards/tenable_io_vulnerability_summary.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 32769000
+ source_type_name: Tenable.io
+ logs:
+ source: tenable-io
+ monitors:
+ Automatic asset age out activity detected: assets/monitors/automatic_asset_age_out_activity.json
+ Multiple asset deletion activities detected: assets/monitors/asset_deletion_activity.json
+ Multiple user impersonation activities detected: assets/monitors/user_impersonation_activity.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- log collection
+- security
+- コンプライアンス
+custom_kind: integration
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/tenable_io/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: tenable_io
+integration_id: tenable-io
+integration_title: Tenable.io
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: tenable_io
+public_title: Tenable.io
+short_description: Tenable.io のログを可視化して状況を把握できます。
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Log Collection
+ - Category::Security
+ - カテゴリ::コンプライアンス
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ configuration: README.md#Setup
+ description: Tenable.io のログを可視化して状況を把握できます。
+ media:
+ - caption: Tenable.io - Activity Summary
+ image_url: images/tenable_io_activity_summary.png
+ media_type: image
+ - caption: Tenable.io - Vulnerability Summary
+ image_url: images/tenable_io_vulnerability_summary.png
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Tenable.io
+---
+
+
+
+
+## 概要
+
+[Tenable.io][1] はクラウド プラットフォームで、システムやサービス全体にわたる脆弱性の発見、評価、レポート、優先度付けを幅広く支援します。資産のディスカバリーによって可視性を高め、組織のセキュリティ ポスチャを効果的に管理できるようにします。
+
+Tenable.io インテグレーションは、次の種類のログを収集します:
+
+- **Activity**: このエンドポイントには、ユーザー アクション、システム イベント、スキャン、セキュリティ制御タスク (権限の管理、ロールの割り当て、セキュリティ イベントの処理など) に関する情報が含まれます。
+- **Vulnerability**: このエンドポイントには、脆弱性と、それに紐づく脆弱な資産に関する情報が含まれます。
+
+このインテグレーションは、上記のソースからログを収集し Datadog に送信します。
+
+## セットアップ
+
+### Tenable.io で API 認証情報を生成する
+
+1. [Tenable.io][2] アカウントにログインします。
+2. プロフィール アイコンをクリックし、 **My Profile** を選択します。
+3. **API Keys** セクションに移動します。
+4. ページ右下の **Generate** ボタンをクリックします。
+5. 警告ダイアログ ボックスのメッセージを確認し、 **Continue** をクリックして **アクセス キー** と **秘密鍵** を生成します。
+
+### Tenable.io アカウントを Datadog に接続する
+
+1. アクセス キーと秘密鍵を追加する
+ |Parameters|Description|
+ |--------------------|--------------------|
+ |Access Key|Tenable.io アカウントのアクセス キー。|
+ |Secret Key|Tenable.io アカウントの秘密鍵。|
+2. **Save** ボタンをクリックして設定を保存します。
+
+## 収集データ
+
+### Logs
+
+Tenable.io インテグレーションはログを収集し Datadog に転送します。
+
+### メトリクス
+
+Tenable.io インテグレーションには、メトリクスは含まれません。
+
+### イベント
+
+Tenable.io インテグレーションには、イベントは含まれません。
+
+## サポート
+
+ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。
+
+[1]: https://www.tenable.com/
+[2]: https://cloud.tenable.com/tio/app.html#/login
+[3]: https://docs.datadoghq.com/ja/help/
\ No newline at end of file
diff --git a/content/ja/logs/troubleshooting/_index.md b/content/ja/logs/troubleshooting/_index.md
index 0ba9b7d58fc..5bdfc69e6f1 100644
--- a/content/ja/logs/troubleshooting/_index.md
+++ b/content/ja/logs/troubleshooting/_index.md
@@ -4,13 +4,19 @@ title: Logs のトラブルシューティング
Datadog Logs で予期しない動作が発生した場合に、ご自分で確認できるよくある問題を本ガイドでいくつかご紹介します。問題が解決しない場合は、[Datadog サポート][1] にお問い合わせください。
+## ログが表示されない - データ アクセス制限
+
+[Log Explorer][2] または [Live Tail][3] にログが表示されない場合があります。これは、あなたのロールが制限クエリの対象になっていることが原因かもしれません。
+
+Logs RBAC のデータ アクセス制御の設定について詳しくは、[Restrictions Queries を確認する][4] を参照してください。
+
## ログの欠落 - ログの 1 日のクォータに達した場合
ログ構成を変更していないのに、[Log Explorer][2] に今日のログがないことが表示されます。これは、1 日のクォータに達しているために起こっている可能性があります。
{{< img src="logs/troubleshooting/daily_quota_reached.png" alt="ログがないことを示す棒グラフと、1 日のクォータに達したことを示すメッセージ" style="width:90%" >}}
-クォータの設定、更新、削除については、[1 日のクォータを設定する][3]を参照してください。
+クォータの設定、更新、削除については、[日次クォータを設定する][5] を参照してください。
## ログが欠落する - タイムスタンプが取り込みウィンドウ外
@@ -19,9 +25,9 @@ Datadog Logs で予期しない動作が発生した場合に、ご自分で確
## JSON ログからタイムスタンプキーをパースできない
-Datadog にインジェストされる前に JSON ログのタイムスタンプを[認識できる日付フォーマット][4]に変換できない場合、以下の手順で Datadog の[算術プロセッサ][5]と[ログ日付リマッパー][6]を使ってタイムスタンプを変換しマッピングしてください。
+JSON ログのタイム スタンプを Datadog に取り込む前に [認識される日付形式][6] へ変換できない場合は、Datadog の [arithmetic processor][5] と [log date remapper][6] を使って、以下の手順でタイム スタンプを変換し、マッピングしてください:
-1. [Pipelines][7] ページに移動します。
+1. [Pipelines][9] ページに移動します。
2. **Pipelines** で、**Preprocessing for JSON logs** にカーソルを合わせ、鉛筆のアイコンをクリックします。
@@ -29,9 +35,9 @@ Datadog にインジェストされる前に JSON ログのタイムスタンプ
{{< img src="logs/troubleshooting/preprocessing_json_timestamp.png" alt="JSON ログコンフィギュレーションボックスと日付属性 (デフォルトでタイムスタンプを含む) の前処理" style="width:90%" >}}
-2. [算術プロセッサ][5]を設定し、タイムスタンプに 1000 を掛けてミリ秒に変換する数式を表示します。計算式の結果は新しい属性になります。
+2. [arithmetic processor][7] を設定し、数式でタイム スタンプに 1000 を掛けてミリ秒へ変換します。数式の結果は新しい属性として作成されます。
-3. 新しい属性を正式なタイムスタンプとして使用するために、[ログ日付リマッパー][6]を設定します。
+3. [log date remapper][8] を設定し、作成した新しい属性を公式のタイム スタンプとして使用します。
[Log Explorer][2] にアクセスすると、新しい JSON ログとそのタイムスタンプがマッピングされて表示されます。
@@ -45,8 +51,10 @@ Datadog にインジェストされる前に JSON ログのタイムスタンプ
[1]: /ja/help/
[2]: https://app.datadoghq.com/logs
-[3]: /ja/logs/log_configuration/indexes/#set-daily-quota
-[4]: /ja/logs/log_configuration/pipelines/?tab=date#date-attribute
-[5]: /ja/logs/log_configuration/processors/?tab=ui#arithmetic-processor
-[6]: /ja/logs/log_configuration/processors/?tab=ui#log-date-remapper
-[7]: https://app.datadoghq.com/logs/pipelines
\ No newline at end of file
+[3]: https://app.datadoghq.com/logs/livetail
+[4]: /ja/logs/guide/logs-rbac-permissions/?tab=ui#check-restriction-queries
+[5]: /ja/logs/log_configuration/indexes/#set-daily-quota
+[6]: /ja/logs/log_configuration/pipelines/?tab=date#date-attribute
+[7]: /ja/logs/log_configuration/processors/?tab=ui#arithmetic-processor
+[8]: /ja/logs/log_configuration/processors/?tab=ui#log-date-remapper
+[9]: https://app.datadoghq.com/logs/pipelines
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/attack-summary.md b/content/ja/security/application_security/threats/attack-summary.md
new file mode 100644
index 00000000000..390e4006e09
--- /dev/null
+++ b/content/ja/security/application_security/threats/attack-summary.md
@@ -0,0 +1,42 @@
+---
+aliases:
+- /ja/security/application_security/threats/threat-overview
+title: 攻撃サマリー
+---
+
+{{< img src="security/application_security/threats/appsec-threat-overview-page-top.png" alt="AAP の Attack Summary ページのスクリーンショット" >}}
+
+AAP の **Attack Summary** は、アプリケーションと API のセキュリティ態勢を素早く把握するためのサマリーです。トレンド、サービスの公開状況、攻撃トラフィック、ビジネス ロジックへの影響が分かるようにハイライトされます。ウィジェットから関連するトレースへ移動できます。
+
+**攻撃サマリー**の各セクションでは、セキュリティのさまざまな側面に焦点を当て、その裏付けとなる情報を掲載しています。
+
+## セクション
+
+Attack Surface Area
+: このセクションでは、露出しているサービス 、攻撃者が使用しているツール、潜在的な脆弱性を特定する商用スキャナーに関するインサイトを提供します。
+
+Attack Traffic
+: これらのグラフは、SSRF、LFI、SQL、コマンドインジェクションなどの攻撃の分類を識別します。これにより、悪意のあるトラフィックやパターンの急増を特定することができます。
+
+Business Logic
+: このセクションは、アカウント乗っ取りの試みなどの詐欺やビジネスロジックの悪用のほか、アプリケーションによって追跡されるカスタムのビジネスロジックイベントに焦点を当てます。
+
+Attack Traffic Sources
+: 攻撃トラフィックのソースを示すグローバルなヒートマップで、地域ごとの脅威を視覚的に表現します。
+
+## ベストプラクティス
+
+1. トレンドを見直して、自社のポスチャのニーズに合った保護方針を採用する。
+2. **Attack Surface Area** の **Exposed Services** ウィジェットを定期的に確認し、正しいサービスのみがアクセス可能であることを確認し、リスクプロファイルに合った保護ポリシーを採用する。
+3. 攻撃ツールをブロックし、顧客のスキャナーが認可された脆弱性管理プログラムの一部であることを確認する。
+4. ビジネスロジックを監視し、クレデンシャルスタッフィング攻撃や危険な支払い行為の急増に対応する。
+5. **Attack Traffic Sources** を使用して、攻撃トラフィックソースと想定されている顧客の所在地を比較する。
+6. [パワーパック](#using-powerpacks)を使用して、最も関連性の高い情報でダッシュボードを強化する。
+
+### パワーパックの使用
+
+Datadog の[新しいダッシュボード][1]にウィジェットを追加する際に、トレイの **Powerpacks** セクションを選択します。`tag:attack_summary` で絞り込むか、検索ボックスに `Attack Summary` と入力します。
+
+**攻撃サマリー**ページの各セクションは、専用のパワーパックに対応しています。
+
+[1]: https://app.datadoghq.com/dashboard/lists
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/single_step/_index.md b/content/ja/security/application_security/threats/setup/single_step/_index.md
new file mode 100644
index 00000000000..b3f4b21d25d
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/single_step/_index.md
@@ -0,0 +1,274 @@
+---
+external_redirect: /security/application_security/threats/threat_detection/
+title: シングルステップインスツルメンテーションを使用して AAP の脅威検出と防御を有効化する
+---
+
+
シングルステップインスツルメンテーションを使用した AAP の脅威検出および防御機能の有効化は、現在プレビュー版です。
+
+## 要件
+
+- **最小 Agent バージョン 7.53.0**
+- **Helm の最小対応バージョン: 3.62.0** (Kubernetes デプロイ向け)
+- **対応言語およびアーキテクチャ**: シングルステップ AAP インスツルメンテーションは、`x86_64` および `arm64` アーキテクチャ上で、Java、Python、Node.js、.NET Core の各サービスのトレースのみをサポートします。
+- **オペレーティングシステム**: Linux VM (Debian、Ubuntu、Amazon Linux、CentOS/Red Hat、Fedora)、Docker、Kubernetes クラスター (Linux コンテナ)
+
+## ワンステップで有効化
+
+[Datadog Agent をインストールまたはアップデート][1]する際に **Enable Threat Protection (new)** オプションを選択すると、Agent がインストールされ AAP が有効な状態に構成されます。これにより、追加のインストールや設定を行わずにアプリケーションを自動的にインスツルメントできます。この変更を反映させるには、サービスを再起動してください。
+
+
+{{< img src="/security/application_security/single_step/asm_single_step_threat_detection_2.png" alt="アカウント設定 (Ubuntu セットアップページ) で、APM インスツルメンテーションと Threat Protection の有効化トグルが強調表示されている様子。" style="width:100%;" >}}
+
+以下の例では、各インフラストラクチャーのタイプでどのように動作するかを示しています。
+
+{{< tabs >}}
+{{% tab "Linux ホストまたは VM" %}}
+
+1 つのコマンドで Agent のインストール、構成、起動を行うと同時に、AAP によるサービスのインスツルメンテーションも可能です。
+
+Ubuntu ホストの場合
+
+1. 1 行のインストールコマンドを実行します。
+
+ ```shell
+ DD_API_KEY=
DD_SITE="" DD_APM_INSTRUMENTATION_ENABLED=host DD_APM_INSTRUMENTATION_LIBRARIES="java:1,python:3,js:5,dotnet:3,php:1" DD_APPSEC_ENABLED=true bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)"
+ ```
+
+ a. `` を自分の [Datadog API キー][4]に置き換えます。
+
+ b. `` を自分の [Datadog サイト][3]に置き換えます。
+
+ You can also optionally configure the following:
+
+
+2. 現在のシェルセッションを終了します。
+3. 新しいシェルセッションを開始します。
+4. ホストまたは VM 上のサービスを再起動します。
+5. [Datadog でサービスのパフォーマンス可観測性を調べます][5]。
+
+**注:** AAP Threat Protection とコードセキュリティの両方をシングルステップで有効化するには、`DD_APPSEC_ENABLED=true` と `DD_IAST_ENABLED=true` の両環境変数をインストールコマンド (1行) に追加してください。
+
+### トレーシングライブラリのバージョン指定 {#lib-linux}
+
+デフォルトでは、サーバーで APM を有効化すると、Java、Python、Node.js、.NET Core の各サービスがサポートされます。これらの中から一部の言語のみで実装されたサービスがある場合は、インストールコマンド (1行) で `DD_APM_INSTRUMENTATION_LIBRARIES` を設定してください。
+
+```shell
+DD_APM_INSTRUMENTATION_LIBRARIES="java:1.25.0,python" DD_API_KEY= DD_SITE="" DD_APM_INSTRUMENTATION_ENABLED=host DD_APPSEC_ENABLED=true DD_ENV=staging bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)"
+```
+
+言語名の後にコロンを置き、トレーシングライブラリのバージョンを指定することで、オプションでトレーシングライブラリのバージョン番号を指定できます。バージョンを指定しない場合、デフォルトは最新バージョンになります。言語名はカンマ区切りです。
+
+サポートされている言語は以下の通りです。
+
+- .NET (`dotnet`)
+- Python (`python`)
+- Java (`java`)
+- Node.js (`js`)
+- PHP (`php`)
+
+**注**: Node.js のトレーシングライブラリについては、Node.js のバージョンによって互換性があります。詳細は [Datadog/dd-trace-js: JavaScript APM トレーサー][6]を参照してください。
+
+### 環境による可観測性データのタグ付け {#env-linux}
+
+Agent を通過するインスツルメンテーションされたサービスやその他のテレメトリーに、特定の環境を自動的にタグ付けするには、Linux 用の 1 行インストールコマンドで `DD_ENV` を設定します。例えば、Agent がステージング環境にインストールされている場合、`DD_ENV=staging` を設定して可観測性データを `staging` に関連付けます。
+
+例:
+
+```shell
+DD_API_KEY= DD_SITE="" DD_APM_INSTRUMENTATION_ENABLED=host DD_APM_INSTRUMENTATION_LIBRARIES="java:1,python:3,js:5,dotnet:3,php:1" DD_APPSEC_ENABLED=true DD_ENV=staging bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)"
+```
+
+[2]: /ja/agent/remote_config
+[3]: /ja/getting_started/site/
+[4]: https://app.datadoghq.com/organization-settings/api-keys
+[5]: /ja/software_catalog/
+[6]: https://github.com/DataDog/dd-trace-js?tab=readme-ov-file#version-release-lines-and-maintenance
+
+{{% /tab %}}
+
+{{% tab "Docker" %}}
+
+Docker Linux コンテナの場合
+
+1. ライブラリインジェクターをインストールします。
+ ```shell
+ DD_APM_INSTRUMENTATION_ENABLED=docker DD_APM_INSTRUMENTATION_LIBRARIES="java:1,python:3,js:5,dotnet:3,php:1" DD_NO_AGENT_INSTALL=true DD_APPSEC_ENABLED=true bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)"
+ ```
+2. Docker で Agent を構成します。
+ ```shell
+ docker run -d --name dd-agent \
+ -e DD_API_KEY=${YOUR_DD_API_KEY} \
+ -e DD_APM_ENABLED=true \
+ -e DD_APPSEC_ENABLED=true \
+ -e DD_APM_NON_LOCAL_TRAFFIC=true \
+ -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \
+ -e DD_APM_RECEIVER_SOCKET=/opt/datadog/apm/inject/run/apm.socket \
+ -e DD_DOGSTATSD_SOCKET=/opt/datadog/apm/inject/run/dsd.socket \
+ -v /opt/datadog/apm:/opt/datadog/apm \
+ -v /var/run/docker.sock:/var/run/docker.sock:ro \
+ gcr.io/datadoghq/agent:7
+ ```
+ `` を自分の [Datadog API][5] に置き換えます。
+
+ You can also optionally configure the following:
+
+
+3. Docker コンテナを再起動します。
+4. [Datadog でサービスのパフォーマンス可観測性を調べます][6]。
+
+### トレーシングライブラリのバージョン指定 {#lib-docker}
+
+デフォルトでは、サーバーで APM を有効にすると、Java、Python、Node.js、.NET サービスのサポートがインストールされます。これらの言語の一部で実装されたサービスしかない場合は、インストールスクリプトを実行するときに `DD_APM_INSTRUMENTATION_LIBRARIES` を設定します。
+
+例えば、Java トレーシングライブラリの v1.25.0 と最新の Python トレーシングライブラリのみのサポートをインストールするには、インストールコマンドに以下を追加します。
+
+```shell
+DD_APM_INSTRUMENTATION_LIBRARIES="java:1.25.0,python" DD_APM_INSTRUMENTATION_ENABLED=docker DD_NO_AGENT_INSTALL=true DD_APPSEC_ENABLED=true bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)"
+```
+
+言語名の後にコロンを置き、トレーシングライブラリのバージョンを指定することで、オプションでトレーシングライブラリのバージョン番号を指定できます。バージョンを指定しない場合、デフォルトは最新バージョンになります。言語名はカンマ区切りです。
+
+サポートされている言語は以下の通りです。
+
+- .NET (`dotnet`)
+- Python (`python`)
+- Java (`java`)
+- Node.js (`js`)
+- Ruby (`ruby`)
+- PHP (`php`)
+
+**注**: Node.js のトレーシングライブラリについては、Node.js のバージョンによって互換性があります。詳細は [Datadog/dd-trace-js: JavaScript APM トレーサー][7]を参照してください。
+
+### 環境による可観測性データのタグ付け {#env-docker}
+
+Agent を通過するインスツルメンテーションされたサービスやその他のテレメトリーに、自動的に特定の環境をタグ付けするには、Docker 用のライブラリインジェクタのインストールコマンドで `DD_ENV` を設定します。例えば、Agent がステージング環境にインストールされている場合、`DD_ENV=staging` を設定して可観測性データを `staging` に関連付けます。
+
+例:
+
+{{< highlight shell "hl_lines=5" >}}
+docker run -d --name dd-agent \
+ -e DD_API_KEY=${YOUR_DD_API_KEY} \
+ -e DD_APM_ENABLED=true \
+ -e DD_APPSEC_ENABLED=true \
+ -e DD_ENV=staging \
+ -e DD_APM_NON_LOCAL_TRAFFIC=true \
+ -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \
+ -e DD_APM_RECEIVER_SOCKET=/opt/datadog/apm/inject/run/apm.socket \
+ -e DD_DOGSTATSD_SOCKET=/opt/datadog/apm/inject/run/dsd.socket \
+ -v /opt/datadog/apm:/opt/datadog/apm \
+ -v /var/run/docker.sock:/var/run/docker.sock:ro \
+ gcr.io/datadoghq/agent:7
+{{< /highlight >}}
+
+[5]: https://app.datadoghq.com/organization-settings/api-keys
+[6]: /ja/software_catalog/
+[7]: https://github.com/DataDog/dd-trace-js?tab=readme-ov-file#version-release-lines-and-maintenance
+
+
+{{% /tab %}}
+
+{{% tab "Kubernetes" %}}
+
+Datadog Helm チャートで Agent をインストールすることで、APM を有効にすることができます。これにより、Datadog Agent が DaemonSet で Linux ベースの Kubernetes クラスターの全ノードにデプロイされます。
+
+**注**: シングルステップインスツルメンテーションは、Datadog Agent をインストールしたネームスペース内のアプリケーションをインスツルメントしません。そのため、アプリケーションを実行しない別のネームスペースに Agent をインストールすることを推奨します。
+
+### 要件
+
+- [Helm][13] がインストールされていることを確認します。
+
+### インストール
+
+Helm でシングルステップのインスツルメンテーションを有効にするには
+
+1. Helm Datadog リポジトリを追加します。
+
+ ```bash
+ helm repo add datadog https://helm.datadoghq.com
+ helm repo update
+ ```
+2. Datadog の [API キー][10]を保存する Kubernetes Secret を作成します。
+
+ ```bash
+ kubectl create secret generic datadog-secret --from-literal api-key=$DD_API_KEY
+[7]: https://v3.helm.sh/docs/intro/install/
+[8]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[9]: https://github.com/DataDog/helm-charts/tree/master/charts/datadog-operator
+[10]: https://app.datadoghq.com/organization-settings/api-keys
+[11]: https://app.datadoghq.com/organization-settings/application-keys
+[12]: /ja/getting_started/site
+[13]: https://v3.helm.sh/docs/intro/install/
+[14]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/values.yaml
+[15]: /ja/tracing/trace_collection/automatic_instrumentation/single-step-apm/?tab=kubernetes#enabling-or-disabling-instrumentation-for-namespaces
+[16]: /ja/tracing/trace_collection/automatic_instrumentation/single-step-apm/?tab=kubernetes#specifying-tracing-library-versions
+[17]: /ja/tracing/trace_collection/automatic_instrumentation/single-step-apm/?tab=kubernetes#removing-instrumentation-for-specific-services
+{{% /tab %}}
+{{< /tabs >}}
+## シングルステップ APM および AAP インスツルメンテーションを Agent から削除する方法
+特定のサービス、ホスト、VM、コンテナのトレースデータを収集したくない場合は、次の手順を実行します。
+### 特定のサービスについてインスツルメンテーションを削除する
+以下のコマンドを実行してサービスを再起動すると、そのサービスへのライブラリ注入およびトレースの生成が停止します。
+{{< tabs >}}
+{{% tab "Linux host or VM" %}}
+1. サービス起動コマンドに環境変数 `DD_INSTRUMENT_SERVICE_WITH_APM` を追加します。
+ ```shell
+ DD_INSTRUMENT_SERVICE_WITH_APM=false
+ ```
+2. サービスを再起動します。
+3. AAP を無効化するには、アプリケーションの構成から `DD_APPSEC_ENABLED=true` 環境変数を削除し、サービスを再起動してください。
+{{% /tab %}}
+{{% tab "Docker" %}}
+1. サービス起動コマンドに環境変数 `DD_INSTRUMENT_SERVICE_WITH_APM` を追加します。
+ ```shell
+ docker run -e DD_INSTRUMENT_SERVICE_WITH_APM=false
+ ```
+2. サービスを再起動します。
+3. AAP を無効化するには、アプリケーションの構成から `DD_APPSEC_ENABLED=true` 環境変数を削除し、サービスを再起動してください。
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+1. ポッド仕様の `admission.datadoghq.com/enabled:` ラベルを `"false"` に設定します。
+ ```yaml
+ spec:
+ template:
+ metadata:
+ labels:
+ admission.datadoghq.com/enabled: "false"
+{{% /tab %}}
+{{< /tabs >}}
+### インフラストラクチャー上のすべてのサービスについて APM を削除する
+トレースの生成を停止するには、ライブラリインジェクタを削除し、インフラストラクチャーを再起動します。
+{{< tabs >}}
+{{% tab "Linux ホストまたは VM" %}}
+1. 次を実行します。
+ ```shell
+ dd-host-install --uninstall
+ ```
+2. ホストを再起動します。
+{{% /tab %}}
+{{% tab "Docker" %}}
+1. ローカルライブラリインジェクションをアンインストールします。
+ ```shell
+ dd-container-install --uninstall
+ ```
+2. Docker を再起動します。
+ ```shell
+ systemctl restart docker
+ ```
+ または、環境に応じたコマンドを使用してください。
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+1. `apm:` の下で、`datadog-values.yaml` 内の `instrumentation:` と以下の構成を削除します。
+2. `datadog-values.yaml` 内 の `asm:` セクションから `threats:` と その後 に続くすべての設定項目を削除してください。
+3. 次のコマンドを実行します。
+ ```bash
+ helm upgrade datadog-agent -f datadog-values.yaml datadog/datadog
+{{% /tab %}}
+{{< /tabs >}}
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: /ja/agent/remote_config
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/threat_detection/dotnet.md b/content/ja/security/application_security/threats/setup/threat_detection/dotnet.md
new file mode 100644
index 00000000000..c821c1d5cda
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/threat_detection/dotnet.md
@@ -0,0 +1,202 @@
+---
+aliases:
+- /ja/security_platform/application_security/getting_started/dotnet
+- /ja/security/application_security/getting_started/dotnet
+- /ja/security/application_security/enabling/tracing_libraries/threat_detection/dotnet/
+code_lang: dotnet
+code_lang_weight: 10
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: ドキュメント
+ text: トレースへのユーザー情報追加
+- link: https://github.com/DataDog/dd-trace-dotnet
+ tag: ソースコード
+ text: .NET Datadog ライブラリソースコード
+- link: /security/default_rules/?category=cat-application-security
+ tag: ドキュメント
+ text: OOTB App and API Protection Rules
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: Troubleshooting App and API Protection
+title: .NET 向け AAP を有効化する
+type: multi-code-lang
+---
+
+Docker、Kubernetes、Amazon ECS、AWS Fargate で実行されている .NET アプリのアプリケーションセキュリティを監視することができます。
+
+{{% appsec-getstarted %}}
+
+## Enabling threat detection
+### 詳細はこちら
+
+1. **Update your [Datadog .NET library][1]** to at least version 2.2.0 (at least version 2.16.0 for Software Composition Analysis detection features) for your target operating system architecture.
+
+ サービスで使用している言語とフレームワークのバージョンが AAP 機能に対応しているかは、[互換性][2] を参照してください。
+
+2. `DD_APPSEC_ENABLED` 環境変数を `true` に設定して **AAP を有効化** します。例えば Windows のセルフ ホスト環境では、アプリケーション起動スクリプトの一部として、次の PowerShell スニペットを実行します:
+ ```
+ $target=[System.EnvironmentVariableTarget]::Process
+ [System.Environment]::SetEnvironmentVariable("DD_APPSEC_ENABLED","true",$target)
+ ```
+
+ **または**アプリケーションの実行場所に応じて、以下の方法のいずれかを選択します。
+
+{{< tabs >}}
+{{% tab "Windows self-hosted" %}}
+
+Windows コンソールで:
+
+```
+rem Set environment variables
+SET CORECLR_ENABLE_PROFILING=1
+SET CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8}
+SET DD_APPSEC_ENABLED=true
+
+rem Start application
+dotnet.exe example.dll
+```
+
+{{% /tab %}}
+{{% tab "IIS" %}}
+
+管理者として以下の PowerShell コマンドを実行し、レジストリ `HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment` に必要な環境変数を構成して、IIS を再起動します。
+```
+$target=[System.EnvironmentVariableTarget]::Machine
+[System.Environment]::SetEnvironmentVariable("DD_APPSEC_ENABLED","true",$target)
+net stop was /y
+net start w3svc
+```
+
+**または**、IIS サービスのみの場合、Powershell がある WAS と W3SVC で管理者権限で以下を実行します。
+
+```
+
+$appsecPart = "DD_APPSEC_ENABLED=true"
+[string[]] $defaultvariable = @("CORECLR_ENABLE_PROFILING=1", "CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8}", $appsecPart)
+
+function Add-AppSec {
+
+ param (
+ $path
+ )
+ $v = (Get-ItemProperty -Path $path).Environment
+ If ($v -eq $null) {
+ Set-ItemProperty -Path $path -Name "Environment" -Value $defaultvariable
+ }
+ ElseIf (-not ($v -match $appsecPart)) {
+ $v += " " + $appsecPart;
+ Set-ItemProperty -Path $path -Name "Environment" -Value $v
+ }
+}
+Add-AppSec -path "HKLM:SYSTEM\CurrentControlSet\Services\WAS\"
+Add-AppSec -path "HKLM:SYSTEM\CurrentControlSet\Services\W3SVC\"
+
+net stop was /y
+net start w3svc
+```
+
+**または**、レジストリキーの編集を避けるため、アプリケーションの設定を `web.config` ファイルで編集します。
+```xml
+
+
+
+
+
+```
+
+これは、IIS アプリケーションプールレベルで、`applicationHost.config` ファイル (通常、`C:\Windows\System32\inetsrv\config\` にあります) で行うこともできます。
+```xml
+
+
+
+
+
+
+
+ (...)
+```
+
+{{% /tab %}}
+{{% tab "Linux" %}}
+
+アプリケーションの構成に以下を追加します。
+```conf
+DD_APPSEC_ENABLED=true
+```
+{{% /tab %}}
+{{% tab "Docker CLI" %}}
+
+APM 用の構成コンテナを更新するには、`docker run` コマンドに以下の引数を追加します。
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+コンテナの Dockerfile に以下の環境変数の値を追加します。
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+APM 用にデプロイ構成ファイルを更新し、AAP 環境変数を追加します:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ }
+]
+```
+
+{{% /tab %}}
+{{% tab "AWS Fargate" %}}
+
+コンテナの Dockerfile に以下の行を追加します。
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+3. **Restart the application** using a full stop and start.
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Video showing Signals explorer and details, and Vulnerabilities explorer and details." video="true" >}}
+
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/dd-trace-dotnet/releases/latest
+[2]: /ja/security/application_security/setup/compatibility/dotnet/
+[3]: /ja/agent/versions/upgrade_between_agent_minor_versions/
+[4]: /ja/security/application_security/setup/compatibility/
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/threat_detection/envoy.md b/content/ja/security/application_security/threats/setup/threat_detection/envoy.md
new file mode 100644
index 00000000000..4a510053abd
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/threat_detection/envoy.md
@@ -0,0 +1,118 @@
+---
+code_lang: envoy
+code_lang_weight: 50
+further_reading:
+- link: https://github.com/DataDog/dd-trace-go/tree/main/contrib/envoyproxy/go-control-plane/cmd/serviceextensions
+ tag: ソースコード
+ text: Envoy インテグレーションのソースコード
+- link: /security/default_rules/?category=cat-application-security
+ tag: ドキュメント
+ text: OOTB App and API Protection Rules
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: Troubleshooting App and API Protection
+title: Envoy 向けに AAP を有効化する
+type: multi-code-lang
+---
+
+{{< callout url="#" btn_hidden="true" header="Envoy 向け AAP はプレビュー中です" >}}
+Envoy 向け AAP のプレビューを試すには、以下のセットアップ手順に従ってください。
+{{< /callout >}}
+
+Envoy プロキシ向けにアプリケーションセキュリティを有効にすることができます。Datadog Envoy インテグレーションは、脅威の検出とブロックをサポートしています。
+
+## 前提条件
+
+- [Datadog Agent][1] が、アプリケーションのオペレーティングシステムやコンテナ、クラウド、仮想環境にインストールされ構成されている。
+- Datadog UI を使用して、攻撃者をブロックするよう [Remote Configuration で Agent を構成する][2]。
+
+## Enabling threat detection
+### 開始する
+
+AAP インテグレーションは、Envoy の外部処理フィルターを使用します。
+
+1. [外部処理フィルター][3]を使用するように **Envoy を構成**します。
+例:
+
+ ```yaml
+ http_filters:
+ # ... other filters
+ - name: envoy.filters.http.ext_proc
+ typed_config:
+ "@type": type.googleapis.com/envoy.extensions.filters.http.ext_proc.v3.ExternalProcessor
+ config:
+ grpc_service:
+ envoy_grpc:
+ cluster_name: datadog_ext_proc_cluster
+ timeout: 1s
+
+ clusters:
+ # ... other clusters
+ - name: datadog_ext_proc_cluster
+ type: STRICT_DNS
+ lb_policy: ROUND_ROBIN
+ http2_protocol_options: {}
+ transport_socket:
+ name: envoy.transport_sockets.tls
+ typed_config:
+ "@type": type.googleapis.com/envoy.extensions.transport_sockets.tls.v3.UpstreamTlsContext
+ load_assignment:
+ cluster_name: datadog_ext_proc_cluster
+ endpoints:
+ - lb_endpoints:
+ - endpoint:
+ address:
+ socket_address:
+ address: Your Datadog image host from step 2
+ port_value: 443
+ ```
+
+ **注**: 上記の例の `Your Datadog image host from step 2` は、Datadog Envoy docker イメージが実行されているホストで置き換える必要があります。このホストの設定は次に行います。
+
+ 利用可能なその他の構成オプションは、[Envoy 外部プロセッサーのドキュメント][4]に記載されています。
+
+2. **Datadog Envoy Docker イメージを使って新しいコンテナを起動します。**このイメージは、[Datadog GitHub レジストリ][5]で入手できます。
+
+ Docker イメージは、特に Envoy インテグレーション向けに一部の設定を公開しています。
+ | 環境変数 | デフォルト値 | 説明 |
+ |----------------------------------------|-----------------|-------------------------------------------------------------------|
+ | `DD_SERVICE_EXTENSION_HOST` | `0.0.0.0` | gRPC サーバーのリスニングアドレス。 |
+ | `DD_SERVICE_EXTENSION_PORT` | `443` | gRPC サーバーのポート。 |
+ | `DD_SERVICE_EXTENSION_HEALTHCHECK_PORT`| `80` | 健全性チェックに使用する HTTP サーバーのポート。 |
+
+ 以下の環境変数を使用して、インテグレーションからトレースを受信するように Datadog Agent を構成します。
+ | 環境変数 | デフォルト値 | 説明 |
+ |----------------------------------------|---------------|-----------------------------------------------------------------------|
+ | `DD_AGENT_HOST` | `localhost` | Datadog Agent が実行されているホスト名。 |
+ | `DD_TRACE_AGENT_PORT` | `8126` | トレース収集用の Datadog Agent のポート。 |
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Video showing Signals explorer and details, and Vulnerabilities explorer and details." video="true" >}}
+
+## Datadog Go Tracer と Envoy インテグレーション
+
+
+ 注: AAP Envoy インテグレーションは Datadog Go Tracer をベースに構築されています。リリース プロセスは tracer と同一で、Docker イメージには対応する tracer バージョンのタグが付与されます。
+
+
+ Envoy インテグレーションは [Datadog Go Tracer][6] を使用し、トレーサーからすべての環境変数を継承します。詳細については、[Go トレーシング ライブラリの構成][7] と [AAP ライブラリの構成][8] を参照してください。
+
+## 制限
+
+Envoy バージョン `1.71.0` で利用可能な機能には、以下の重要な制限があります。
+
+* リクエスト本文は、コンテンツタイプに関係なく検査されません。
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/account/settings#agent
+[2]: https://docs.datadoghq.com/ja/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration
+[3]: https://www.envoyproxy.io/docs/envoy/latest/configuration/http/http_filters/ext_proc_filter
+[4]: https://www.envoyproxy.io/docs/envoy/latest/api-v3/extensions/filters/http/ext_proc/v3/ext_proc.proto#extensions-filters-http-ext-proc-v3-externalprocessor
+[5]: https://github.com/DataDog/dd-trace-go/pkgs/container/dd-trace-go%2Fservice-extensions-callout
+[6]: https://github.com/DataDog/dd-trace-go
+[7]: https://docs.datadoghq.com/ja/tracing/trace_collection/library_config/go/
+[8]: https://docs.datadoghq.com/ja/security/application_security/threats/library_configuration/
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/threat_detection/go.md b/content/ja/security/application_security/threats/setup/threat_detection/go.md
new file mode 100644
index 00000000000..8e50bde36e0
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/threat_detection/go.md
@@ -0,0 +1,124 @@
+---
+aliases:
+- /ja/security_platform/application_security/getting_started/go
+- /ja/security/application_security/getting_started/go
+- /ja/security/application_security/enabling/tracing_libraries/threat_detection/go/
+code_lang: go
+code_lang_weight: 20
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: ドキュメント
+ text: トレースへのユーザー情報追加
+- link: https://github.com/DataDog/dd-trace-dotnet
+ tag: ソースコード
+ text: Go Datadog ライブラリソースコード
+- link: /security/default_rules/?category=cat-application-security
+ tag: ドキュメント
+ text: OOTB App and API Protection Rules
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: Troubleshooting App and API Protection
+title: Go 向けに AAP を有効化する
+type: multi-code-lang
+---
+
+Docker、Kubernetes、Amazon ECS で動作する Go アプリのアプリケーションセキュリティを監視することができます。
+
+{{% appsec-getstarted %}}
+- あなたのサービスは[サポートされています][2]。
+
+## Enabling threat detection
+### 詳細はこちら
+
+1. 最新バージョンの Datadog Go ライブラリ (バージョン 1.53.0 以降) を**プログラムの go.mod 依存関係に追加**します。
+
+ ```shell
+ $ go get -v -u gopkg.in/DataDog/dd-trace-go.v1 # v1
+ # $ go get -v -u github.com/DataDog/dd-trace-go/v2/ddtrace/tracer # v2
+ ```
+
+2. Datadog には、一連の Go ライブラリやフレームワークのインスツルメンテーション向けにすぐに使えるサポートを提供するプラグイン可能な一連のパッケージがあります。
+ これらのパッケージのリストは、[互換性要件][1]ページにあります。これらのパッケージをアプリケーションにインポートし、各インテグレーションの横に記載されている構成の説明に従ってください。
+
+3. AAP を有効にして **プログラムを再コンパイル**します。
+ ```console
+ $ go build -v -tags appsec my-program
+ ```
+
+ **注**:
+ - `CGO_ENABLED=1` で CGO が有効になっていれば、Go のビルドタグ `appsec` は不要です。
+ - Datadog WAF を Linux 上で動作させるには、次の共有ライブラリが必要です: `libc.so.6` および `libpthread.so.0`。
+ - ビルドタグ `appsec` を使用し、CGO が無効になっている場合、生成されたバイナリは依然としてこれらのライブラリと動的にリンクされます。
+ - 上記の要件が障害になる場合は、Go のビルド タグ `datadog.no_waf` を使ってビルド時に AAP を無効化できます。
+
+4. `DD_APPSEC_ENABLED` 環境変数を `true` に設定して **Go サービスを再デプロイし、AAP を有効化**します。
+ ```console
+ $ env DD_APPSEC_ENABLED=true ./my-program
+ ```
+
+ または、アプリケーションが実行される場所に応じて、以下の方法のいずれかを使用します。
+
+ {{< tabs >}}
+{{% tab "Docker CLI" %}}
+
+Docker コマンドラインに以下の環境変数の値を追加します。
+
+```console
+$ docker run -e DD_APPSEC_ENABLED=true [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+アプリケーションコンテナの Dockerfile に以下の環境変数の値を追加します。
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+APM 用にアプリケーションのデプロイ構成ファイルを更新し、AAP の環境変数を追加します。
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+以下を環境セクションに追加して、アプリケーションの ECS タスク定義 JSON ファイルを更新します。
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ }
+]
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+{{% appsec-getstarted-2 %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Video showing Signals explorer and details, and Vulnerabilities explorer and details." video="true" >}}
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/security/application_security/setup/compatibility/go/#web-framework-compatibility
+[2]: /ja/security/application_security/setup/compatibility/go/
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/threat_detection/java.md b/content/ja/security/application_security/threats/setup/threat_detection/java.md
new file mode 100644
index 00000000000..b92d445d716
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/threat_detection/java.md
@@ -0,0 +1,145 @@
+---
+aliases:
+- /ja/security_platform/application_security/getting_started/java
+- /ja/security/application_security/getting_started/java
+code_lang: java
+code_lang_weight: 0
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: ドキュメント
+ text: トレースへのユーザー情報追加
+- link: https://github.com/DataDog/dd-trace-java
+ tag: ソースコード
+ text: Java Datadog ライブラリソースコード
+- link: /security/default_rules/?category=cat-application-security
+ tag: ドキュメント
+ text: OOTB App and API Protection Rules
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: Troubleshooting App and API Protection
+title: Java 向け AAP を有効化する
+type: multi-code-lang
+---
+
+Docker、Kubernetes、Amazon ECS、AWS Fargate 上で動作する Java アプリのアプリケーション セキュリティを監視できます。
+
+{{% appsec-getstarted %}}
+
+## Enabling threat detection
+### 詳細はこちら
+
+1. **Update your [Datadog Java library][1]** to at least version 0.94.0 (at least version 1.1.4 for Software Composition Analysis detection features):
+
+ {{< tabs >}}
+ {{% tab "Wget" %}}
+ ```shell
+ wget -O dd-java-agent.jar 'https://dtdg.co/latest-java-tracer'
+ ```
+{{% /tab %}}
+{{% tab "cURL" %}}
+ ```shell
+ curl -Lo dd-java-agent.jar 'https://dtdg.co/latest-java-tracer'
+ ```
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+ ```dockerfile
+ ADD 'https://dtdg.co/latest-java-tracer' dd-java-agent.jar
+ ```
+{{% /tab %}}
+{{< /tabs >}}
+
+ サービスで使用している言語とフレームワークのバージョンが AAP 機能に対応しているかは、[互換性][2] を参照してください。
+
+2. **AAP を有効化して Java アプリケーションを実行します。** コマンド ラインから:
+ ```shell
+ java -javaagent:/path/to/dd-java-agent.jar -Ddd.appsec.enabled=true -Ddd.service= -Ddd.env= -jar path/to/app.jar
+ ```
+
+ または、アプリケーションが実行される場所に応じて、以下の方法のいずれかを使用します。
+
+ **注:** 読み取り専用ファイルシステムは現在サポートされていません。アプリケーションは書き込み可能な `/tmp` ディレクトリへのアクセス権を持っている必要があります。
+
+ {{< tabs >}}
+{{% tab "Docker CLI" %}}
+
+APM 用の構成コンテナを更新するには、`docker run` コマンドに以下の引数を追加します。
+
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+コンテナの Dockerfile に以下の環境変数の値を追加します。
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+APM 用にデプロイ構成ファイルを更新し、AAP 環境変数を追加します:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ }
+]
+```
+
+{{% /tab %}}
+{{% tab "AWS Fargate" %}}
+
+サービス起動時に `-Ddd.appsec.enabled` フラグまたは `DD_APPSEC_ENABLED` 環境変数を `true` に設定します。
+
+```shell
+java -javaagent:dd-java-agent.jar \
+ -Ddd.appsec.enabled=true \
+ -jar .jar \
+
+```
+
+{{% /tab %}}
+
+ {{< /tabs >}}
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Video showing Signals explorer and details, and Vulnerabilities explorer and details." video="true" >}}
+
+
+さらにサポートが必要な場合は、[Datadog サポート][5]にお問い合わせください。
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/dd-trace-java/releases
+[2]: /ja/security/application_security/setup/compatibility/java/
+[3]: /ja/security/application_security/setup/compatibility/java/
+[4]: https://app.datadoghq.com/security/appsec/vm
+[5]: /ja/help
+[6]: /ja/agent/versions/upgrade_between_agent_minor_versions/
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/threat_detection/nginx.md b/content/ja/security/application_security/threats/setup/threat_detection/nginx.md
new file mode 100644
index 00000000000..4a680a5d576
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/threat_detection/nginx.md
@@ -0,0 +1,82 @@
+---
+aliases:
+- /ja/security_platform/application_security/getting_started/nginx
+- /ja/security/application_security/getting_started/nginx
+- /ja/security/application_security/enabling/tracing_libraries/threat_detection/nginx/
+code_lang: nginx
+code_lang_weight: 50
+further_reading:
+- link: https://github.com/DataDog/nginx-datadog/
+ tag: ソースコード
+ text: nginx integration's source code
+- link: /security/default_rules/?category=cat-application-security
+ tag: ドキュメント
+ text: OOTB App and API Protection Rules
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: App and API Protection のトラブルシューティング
+title: Nginx 向けに AAP を有効化する
+type: multi-code-lang
+---
+
+Datadog の nginx トレーシング モジュールは、脅威の検知とブロックを実験的にサポートしています。
+
+## 脅威検知を有効化する
+### はじめに
+
+1. nginx のビルドが
+ `--with-threads` フラグ付きでコンパイルされていることを確認してください。多くのディストリビューションでは、このフラグは既定で有効になっています。
+ nginx のインストールがスレッド対応でビルドされているか確認するには、コマンド `nginx
+ -V` を実行し、出力の `configure arguments` 行を確認します。出力に
+ `--with-threads` が見当たらない場合は、このフラグを有効にして nginx を再ビルドする必要があります。
+ ソースから nginx をビルドする方法の詳細は、
+ [nginx ドキュメント][3] を参照してください。
+
+2. 少なくともバージョン 1.2.0 以上に **nginx トレーシング ライブラリ モジュールを更新** してください。
+ [GitHub リリース ページ][2] を開き、
+ "ngx_http_datadog_module-appsec-<amd64/arm64>-<nginx
+ version>.so.tgz" という命名パターンのアーティファクトを選択します。このアーティファクト名には "appsec" が含まれます。
+
+3. **nginx の設定で AAP を有効化**します。
+ 次の対応が必要です:
+ * [`thread_pool`][4] ディレクティブで、1 つ以上のスレッド プールを定義する
+ * [`datadog_appsec_enabled`][5] を使って AppSec を明示的に有効化する
+ * [`datadog_waf_thread_pool_name`][6] ディレクティブで、
+ リクエストを定義したスレッド プールに割り当てる
+
+ 例:
+
+ ```nginx
+ load_module /path/to/ngx_http_datadog_module.so;
+ thread_pool waf_thread_pool threads=4 max_queue=128;
+ http {
+ datadog_appsec_enabled on;
+ datadog_waf_thread_pool_name waf_thread_pool;
+ }
+ ```
+
+ 詳細は [リファレンス ドキュメント][3] を参照してください。
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Signals Explorer と詳細、Vulnerabilities Explorer と詳細を示す動画。" video="true" >}}
+
+## 制限
+
+バージョン 1.3.0 時点では、利用できる機能に次の重要な制約があります:
+
+* リクエスト本文は、コンテンツタイプに関係なく検査されません。
+
+* ステータス コード、ヘッダー、ボディなど、レスポンスの特性に基づいて
+ リクエストをブロックすることはできません。
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/nginx-datadog/blob/master/doc/API.md
+[2]: https://github.com/DataDog/nginx-datadog/releases
+[3]: https://nginx.org/en/docs/configure.html
+[4]: https://nginx.org/en/docs/ngx_core_module.html#thread_pool
+[5]: https://github.com/DataDog/nginx-datadog/blob/master/doc/API.md#datadog_appsec_enabled-appsec-builds
+[6]: https://github.com/DataDog/nginx-datadog/blob/master/doc/API.md#datadog_waf_thread_pool_name-appsec-builds
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/setup/threat_detection/ruby.md b/content/ja/security/application_security/threats/setup/threat_detection/ruby.md
new file mode 100644
index 00000000000..d00b2f24e9d
--- /dev/null
+++ b/content/ja/security/application_security/threats/setup/threat_detection/ruby.md
@@ -0,0 +1,221 @@
+---
+aliases:
+- /ja/security_platform/application_security/getting_started/ruby
+- /ja/security/application_security/getting_started/ruby
+- /ja/security/application_security/enabling/tracing_libraries/threat_detection/ruby/
+code_lang: ruby
+code_lang_weight: 30
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: ドキュメント
+ text: トレースへのユーザー情報追加
+- link: https://github.com/DataDog/dd-trace-rb
+ tag: ソースコード
+ text: Ruby Datadog ライブラリソースコード
+- link: /security/default_rules/?category=cat-application-security
+ tag: ドキュメント
+ text: OOTB App and API Protection Rules
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: Troubleshooting App and API Protection
+title: Ruby 向けに AAP を有効化する
+type: multi-code-lang
+---
+
+You can monitor application security for Ruby apps running in Docker, Kubernetes, Amazon ECS, and AWS Fargate.
+
+{{% appsec-getstarted %}}
+
+## Enabling threat detection
+### 詳細はこちら
+
+1. **Gemfile を更新して Datadog ライブラリを含めます**:
+
+ ```ruby
+ gem 'datadog', '~> 2.0' # Use 'ddtrace' if you're using v1.x
+ ```
+
+ サービスで使用している言語とフレームワークのバージョンが AAP の機能に対応しているか確認するには、[互換性][1] を参照してください。
+
+ For more information about upgrading to v2 from a `dd-trace` 1.x version, see [the Ruby tracer upgrade guide][2].
+
+2. **AAP を有効化**するには、APM トレーサーを有効にします。以下のオプションは、よくあるケースを想定したクイック セットアップです。詳細は [Ruby トレーサー ドキュメント][3] を参照してください。
+
+ AAP は次のようにコードで有効化できます:
+
+ {{< tabs >}}
+
+{{% tab "Rails" %}}
+ アプリケーションコードにイニシャライザーを追加して、APM トレーサーを有効にします。
+
+ ```ruby
+ # config/initializers/datadog.rb
+
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # APM トレーサーを有効化
+ c.tracing.instrument :rails
+
+ # AAP を有効化
+ c.appsec.enabled = true
+ c.appsec.instrument :rails
+ end
+ ```
+
+または、自動インスツルメントするために Gemfile を更新して、自動インスツルメンテーションを通じて APM トレーサーを有効にします。
+
+ ```ruby
+ gem 'datadog', '~> 2.0', require: 'datadog/auto_instrument'
+ ```
+
+また、`appsec` を有効にします。
+
+ ```ruby
+ # config/initializers/datadog.rb
+
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # APM トレーサーは自動インスツルメンテーションで有効化されています
+
+ # AAP を有効化
+ c.appsec.enabled = true
+ c.appsec.instrument :rails
+ end
+ ```
+
+{{% /tab %}}
+
+{{% tab "Sinatra" %}}
+ アプリケーションのスタートアップに以下を追加して、APM トレーサーを有効にします。
+
+ ```ruby
+ require 'sinatra'
+ require 'datadog'
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # APM トレーサーを有効化
+ c.tracing.instrument :sinatra
+
+ # Sinatra 向けに AAP を有効化
+ c.appsec.enabled = true
+ c.appsec.instrument :sinatra
+ end
+ ```
+
+または自動インスツルメンテーションで APM トレーサーを有効にします。
+
+ ```ruby
+ require 'sinatra'
+ require 'datadog/auto_instrument'
+
+ Datadog.configure do |c|
+ # APM トレーサーは自動インスツルメンテーションで有効化されています
+
+ # Sinatra 向けに AAP を有効化
+ c.appsec.enabled = true
+ c.appsec.instrument :sinatra
+ end
+ ```
+{{% /tab %}}
+
+{{% tab "Rack" %}}
+ `config.ru` ファイルに以下を追加して、APM トレーサーを有効にします。
+
+ ```ruby
+ require 'datadog'
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # APM トレーサーを有効化
+ c.tracing.instrument :rack
+
+ # Rack 向けに AAP を有効化
+ c.appsec.enabled = true
+ c.appsec.instrument :rack
+ end
+
+ use Datadog::Tracing::Contrib::Rack::TraceMiddleware
+ use Datadog::AppSec::Contrib::Rack::RequestMiddleware
+ ```
+{{% /tab %}}
+
+{{< /tabs >}}
+
+ Or one of the following methods, depending on where your application runs:
+
+ {{< tabs >}}
+{{% tab "Docker CLI" %}}
+
+APM 用の構成コンテナを更新するには、`docker run` コマンドに以下の引数を追加します。
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+コンテナの Dockerfile に以下の環境変数の値を追加します。
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+APM 用の構成 yaml ファイルコンテナを更新し、AppSec の環境変数を追加します。
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ }
+]
+```
+
+{{% /tab %}}
+{{% tab "AWS Fargate" %}}
+
+AAP の初期化はコードで行うか、サービス起動時に `DD_APPSEC_ENABLED` 環境変数を true に設定してください。
+```shell
+env DD_APPSEC_ENABLED=true rails server
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+{{% appsec-getstarted-2-canary %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Video showing Signals explorer and details, and Vulnerabilities explorer and details." video="true" >}}
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/security/application_security/setup/compatibility/ruby/
+[2]: https://github.com/DataDog/dd-trace-rb/blob/master/docs/UpgradeGuide2.md
+[3]: /ja/tracing/trace_collection/dd_libraries/ruby/
\ No newline at end of file
diff --git a/content/ja/security/application_security/threats/threat-intelligence.md b/content/ja/security/application_security/threats/threat-intelligence.md
new file mode 100644
index 00000000000..9e3c0e2db40
--- /dev/null
+++ b/content/ja/security/application_security/threats/threat-intelligence.md
@@ -0,0 +1,176 @@
+---
+further_reading:
+- link: https://docs.datadoghq.com/security/threat_intelligence/
+ tag: ドキュメント
+ text: Datadog の Threat Intelligence
+- link: /security/application_security/
+ tag: ドキュメント
+ text: Datadog App and API Protection で脅威から保護する
+title: Threat Intelligence
+---
+
+## 概要
+
+このトピックでは、App and API Protection (AAP) の [脅威インテリジェンス][1] について説明します。
+
+Datadog には、AAP 向けの脅威インテリジェンス [データ セット][1] が組み込まれています。これにより、セキュリティ アクティビティに対応する際の根拠が増えるほか、一部のビジネス ロジック検知では検知しきい値が引き下げられます。
+
+さらに AAP は、*独自の脅威インテリジェンスの持ち込み (bring your own threat intelligence)* にも対応しています。この機能により、業務固有の脅威インテリジェンスで検知結果を補強できます。
+
+## ベストプラクティス
+
+Datadog は、脅威インテリジェンスの活用方法として以下を推奨しています。
+
+1. クレデンシャルスタッフィングなどのビジネスロジックに対する脅威の検出ルールのしきい値を低く設定すること。ユーザーは、デフォルトの[クレデンシャルスタッフィング][6]ルールを複製し、ニーズに応じてカスタマイズすることができます。
+2. セキュリティ活動において、脅威インテリジェンスをレピュテーションの指標として活用すること。
+
+Datadog は、以下を推奨しません。
+1. セキュリティ活動に対応していない脅威インテリジェンスのトレースをブロックすること。IP アドレスの背後には多くのホストが存在する可能性があり、住宅用プロキシが検出された場合、その IP アドレスの背後にあるホストが関連する活動を行っていたことを示しますが、そのホストがマルウェアやプロキシを実行しているホストと、あなたのサービスと通信しているホストが同一であることを保証するものではありません。
+2. すべての脅威インテリジェンスカテゴリーに対してブロックを行うこと。これにより、企業の VPN からの良性のトラフィックや悪意のないトラフィックもブロックされる可能性があります。
+
+## AAP で脅威インテリジェンスを使ってフィルタリングする
+
+ユーザーは、Signal Explorer と Traces Explorer 上でファセットや検索バーを使用して脅威インテリジェンスをフィルタリングできます。
+
+特定のソースによってフラグ付けされたすべてのトレースを検索するには、次のクエリをソース名と共に使用します。
+
+ @threat_intel.results.source.name:
+
+任意のソースからの脅威インテリジェンスを含むすべてのトレースを検索するには、次のクエリを使用します。
+
+ @appsec.threat_intel:true
+
+## Bring Your Own Threat Intelligence
+
+AAP は、Datadog のリファレンス テーブルに保存された脅威インテリジェンスの侵害指標 (IoC) を使って、トレースをエンリッチし、検索できるようにできます。[リファレンス テーブル][2] を使うと、メタデータを Datadog に既にある情報と組み合わせられます。
+
+### 侵害指標をリファレンステーブルに格納
+
+Threat Intelligence は CSV 形式に対応しており、次の列が必要となります。
+
+**CSV 構造**
+
+| フィールド | データ | 説明| 必須 | 例|
+|------------------|-------|----|-----|--|
+| ip_address | テキスト | IPv4 のドット表記形式のリファレンステーブルのプライマリキー。 | true | 192.0.2.1 |
+| additional_data | json | トレースを強化するための追加データ。 | false | `{"ref":"hxxp://example.org"}`
+| category | テキスト | 脅威インテリジェンスの[カテゴリー][7]。これは、すぐに使える検出ルールで使用されます。 | true | `residential_proxy` |
+| intention | テキスト | 脅威インテリジェンスの[意図][8]。すぐに使える検出ルールで使用されます。| true | 悪意がある | |
+| source | テキスト | ソースの名前とそのサイトへのリンク (例: あなたのチームとチームの Wiki)。 | true| `{"name":"internal_security_team", "url":"https://teamwiki.example.org"}` | |
+
+
+
+サポートされているカテゴリーと意図の全リストは、[Threat Intelligence Facets][3] で確認できます。
+
+CSV 内の JSON には二重引用符が必要です。以下はその例です。
+
+```
+ip_address,additional_data,category,intention,source
+192.0.2.1,"{""ref"":""hxxp://example.org""}",scanner,suspicious,"{""name"":""internal_security_team"", ""url"":""https://teamwiki.example.org""}"
+192.0.2.2,"{""ref"":""hxxp://example.org""}",scanner,suspicious,"{""name"":""internal_security_team"", ""url"":""https://teamwiki.example.org""}"
+192.0.2.3,"{""ref"":""hxxp://example.org""}",scanner,suspicious,"{""name"":""internal_security_team"", ""url"":""https://teamwiki.example.org""}"
+```
+
+### 独自の脅威インテリジェンスをアップロードして有効化する
+
+Datadog では、手動でアップロードするか、[Amazon S3、Azure Storage、Google Cloud Storage][10] から定期的にデータを取得することで参照テーブルを作成できます。
+
+注:
+- テーブルを作成してから AAP トレースのエンリッチが始まるまで、10~30 分かかる場合があります。
+- プライマリキーが重複している場合、該当する行はスキップされ、そのキーに関するエラーメッセージが表示されます。
+
+新しい[リファレンステーブル][4]ページで、
+
+1. テーブルに名前を付けます。テーブル名は AAP の **Threat Intel** 設定で参照されます。
+2. ローカルの CSV ファイルをアップロードするか、クラウドストレージバケットから CSV をインポートできます。ファイルは正規化および検証されます。
+3. テーブルスキーマをプレビューし、IP アドレスをプライマリキーとして選択します。
+
+ {{< img src="/security/application_security/threats/threat_intel/threat_intel_ref_table.png" alt="新しいリファレンステーブル" style="width:100%;" >}}
+4. テーブルを保存します。
+5. [Threat Intel][5] で新しいテーブルを見つけ、トグルを選択して有効にします。
+
+ {{< img src="/security/application_security/threats/threat_intel/threat_intel_ref_table_enabled.png" alt="有効なリファレンステーブル" style="width:100%;" >}}
+
+#### クラウドストレージを使用する場合
+
+参照テーブルがクラウドストレージから作成された場合、定期的にリフレッシュされます。テーブル全体が*置き換え*られ、データはマージされません。
+
+関連する参照テーブルのドキュメントを参照してください。
+- [Amazon S3][11]
+- [Azure storage][12]
+- [Google Cloud storage][13]
+
+#### クラウドインポートのトラブルシューティング
+
+参照テーブルがリフレッシュされていない場合、参照テーブル詳細ページの設定から **View Change Events** リンクを選択します。
+
+**View Change Events** を選択すると、**Event Management** ページが開き、取り込みに関する潜在的なエラーイベントが表示されます。また、参照テーブル名を使用して **Event Management** 内でフィルタリングすることもできます。
+
+Datadog の Event Management 上では、クラウドからデータが取得されたように見えることがありますが、これらの変更が Threat Intelligence に反映されるまでには、さらに数分かかる場合があります。
+
+その他、クラウドインポートに関して覚えておくと有用なポイント:
+
+- ソースがアップロードまたは更新された後、更新されたエンリッチメントが利用可能になるまでの予想レイテンシーは 10~30 分です。
+- 更新が適用されたかどうかを知るには、変更は参照テーブルまたはスパン内で確認できます。関連イベントを確認するには、参照テーブル詳細ページの設定から **View Change Events** リンクを選択してください。
+- 更新によって*テーブル全体*が新しいデータで置き換えられます。
+- 重複するプライマリキーがある場合、その重複キーの行は書き込まれず、参照テーブル詳細ページにエラーが表示されます。
+
+### リファレンステーブルとリストを結合してトレースをフィルタリングする
+
+Datadog では、トレース テーブルをリファレンス テーブルと結合することで AAP トレースをフィルタリングできます。
+
+リファレンステーブルをトレースクエリと結合するには、Datadog のトレーステーブルとリファレンステーブルの関連する列に基づいて、それらのテーブルの行を結合します。トレースクエリは、両方のテーブルで一致するものがあるトレースのみを返します。
+
+リファレンステーブルとの結合を使用することで、既存のトレースとの過去の一致を検索し、強化前の影響を評価することができます。
+
+IP アドレスに限らず、任意のフィールドを使用できます。たとえば、リファレンステーブルの特定の URL とセキュリティトレースを関連付けることで、アプリケーションのどの部分が攻撃の標的となっているかを特定できます。これにより、アプリケーション内の脆弱性やリスクの高い領域を正確に特定できます。
+
+例:
+
+- 調査とインシデント対応。攻撃の IP アドレスやその他のフィールドをアップロードして結合し、そのインシデントに関連するトラフィックを確認することができます。
+- リファレンステーブルの IP アドレスとセキュリティトレースを結合し、例えば IP アドレスを地理的な場所や組織の詳細と関連付けることで、セキュリティチームは攻撃の試みに関するより優れたコンテキストを得ることができます。これにより、攻撃の起源や潜在的な動機を理解するのに役立ちます。
+
+
+リファレンステーブルにトレースを結合するには
+
+1. [独自の脅威インテリジェンスをアップロードして有効化する](#uploading-and-enabling-your-own-threat-intel)で説明されているように、使用するリファレンステーブルをアップロードします。
+2. トレースをリファレンステーブルと結合するには、[Traces][9] で **Add** を選択し、その後 **Join with Reference Table** を選択します。
+3. **Inner join with reference table** で使用するリファレンステーブルを選択します。
+4. **where field** で、結合に使用する Datadog トレースフィールドを選択します。
+5. **column** では、結合に使用するリファレンステーブルのフィールドを選択します。
+
+{{< img src="security/application_security/threats/threat_intel/threat_intel_ref_join.png" alt="イメージの説明" style="width:100%;" >}}
+
+### 検出ルール用のトレースの強化
+
+トレースのエンリッチでは、侵害指標が AAP トレース内の `http.client_ip` キーの値と一致した場合に、脅威インテリジェンスの属性が AAP トレースへ追加されます。これにより、既存の Facets を使って脅威インテリジェンス一致のトレースを検索したり、検知ルールで脅威インテリジェンスを活用したりできます。
+
+
+
+## ユーザーインターフェイスにおける脅威インテリジェンス
+
+AAP Traces Explorer でトレースを表示すると、`@appsec` 属性の下に脅威インテリジェンス データが表示されます。`category` と `security_activity` の属性はいずれも設定されます。
+
+{{< img src="security/application_security/threats/threat_intel/threat_intel_appsec.png" alt="脅威インテリジェンスデータを含む appsec 属性の例">}}
+
+`@threat_intel.results` の下には、どのソースから一致したかの詳細が常に表示されます。
+
+{{< img src="security/application_security/threats/threat_intel/threat_intel_generic.png" alt="脅威インテリジェンスデータを含む threat_intel 属性の例">}}
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/security/threat_intelligence/#threat-intelligence-sources
+[2]: /ja/integrations/guide/reference-tables
+[3]: /ja/security/threat_intelligence/#threat-intelligence-facets
+[4]: https://app.datadoghq.com/reference-tables/create
+[5]: https://app.datadoghq.com/security/configuration/threat-intel
+[6]: https://app.datadoghq.com/security/configuration/asm/rules/edit/kdb-irk-nua?product=appsec
+[7]: /ja/security/threat_intelligence#threat-intelligence-categories
+[8]: /ja/security/threat_intelligence#threat-intelligence-intents
+[9]: https://app.datadoghq.com/security/appsec/traces
+[10]: /ja/integrations/guide/reference-tables/?tab=manualupload#create-a-reference-table
+[11]: /ja/integrations/guide/reference-tables/?tab=amazons3#create-a-reference-table
+[12]: /ja/integrations/guide/reference-tables/?tab=azurestorage#create-a-reference-table
+[13]: /ja/integrations/guide/reference-tables/?tab=googlecloudstorage#create-a-reference-table
\ No newline at end of file
diff --git a/content/ja/security/cloud_security_management/guide/writing_rego_rules.md b/content/ja/security/cloud_security_management/guide/writing_rego_rules.md
index dae62394e9c..674f2e3db31 100644
--- a/content/ja/security/cloud_security_management/guide/writing_rego_rules.md
+++ b/content/ja/security/cloud_security_management/guide/writing_rego_rules.md
@@ -18,7 +18,7 @@ Open Policy Agent (OPA) は、クラウドのセキュリティポスチャを
## テンプレートモジュール
-ルールの定義は、[モジュール][3]の内部で定義された Rego [ポリシー][2]から始まります。CSM Misconfigurations では、以下のようなモジュールテンプレートを使用して、ルールの記述を簡素化しています。
+ルールの定義は、Rego で記述した [ポリシー][2] から始まります。このポリシーは [モジュール][3] 内に定義します。Cloud Security Misconfigurations では、ルール作成を簡単にするため、以下のようなモジュール テンプレートを使用します。
```python
package datadog
diff --git a/content/ja/security/cloud_security_management/misconfigurations/custom_rules.md b/content/ja/security/cloud_security_management/misconfigurations/custom_rules.md
index 462a182feb1..1df0297d22e 100644
--- a/content/ja/security/cloud_security_management/misconfigurations/custom_rules.md
+++ b/content/ja/security/cloud_security_management/misconfigurations/custom_rules.md
@@ -12,7 +12,7 @@ further_reading:
text: 独自の Rego ルールを作成する
- link: security/default_rules
tag: ドキュメント
- text: デフォルトの CSM Misconfigurations クラウド構成コンプライアンスルールを調べる
+ text: デフォルトの Cloud Security Misconfigurations クラウド構成コンプライアンス ルールを確認する
- link: security/misconfigurations/frameworks_and_benchmarks
tag: ドキュメント
text: フレームワークおよび業界のベンチマークの詳細
@@ -31,7 +31,7 @@ title: カスタムルールを作成する
1. コピーしたいルールを探すには、次のいずれかの方法を行います。
- [**Misconfigurations Rules**][1] ページに移動します。コピーしたいルールを選択し、その詳細ページを開きます。
- - [**Misconfigurations Explorer**][2] に移動します。誤構成を選択してその詳細を開き、**Edit Rule** を選択します。
+ - [**Misconfigurations explorer**][2] に移動します。誤構成を選択して詳細を開き、 **Edit Rule** を選択します。
2. 新しいルールのために必要な変更を行います。
3. 詳細ページの一番下までスクロールして、**Clone Rule** をクリックします。
@@ -59,7 +59,7 @@ title: カスタムルールを作成する
## 誤構成のタグ付け
-CSM Misconfigurations コンプライアンスルールを作成、複製、または修正するときに、誤構成に適用するタグを指定して、誤構成をタグでグループ化、フィルター、および検索できるようにすることができます。ルールを複製する場合、一部のタグは新しいルールに引き継がれ、他のタグは引き継がれません (以下の表を参照)。
+Cloud Security Misconfigurations のコンプライアンス ルールを作成・複製・変更する際は、誤構成に適用するタグを指定できます。タグで誤構成をグループ化、フィルタリング、検索できます。ルールを複製すると、一部のタグは新しいルールに引き継がれますが、引き継がれないものもあります (下表を参照)。
ほぼすべての Key-Value をタグとして割り当てることができます。次の表は、一般的なセキュリティシナリオで有用なタグを示したものです。
diff --git a/content/ja/security/cloud_security_management/review_remediate/jira.md b/content/ja/security/cloud_security_management/review_remediate/jira.md
index 28a8858aeaa..fdbb028f265 100644
--- a/content/ja/security/cloud_security_management/review_remediate/jira.md
+++ b/content/ja/security/cloud_security_management/review_remediate/jira.md
@@ -4,41 +4,41 @@ aliases:
further_reading:
- link: /security/cloud_security_management/guide
tag: ドキュメント
- text: Cloud Security Management ガイド
+ text: Cloud Security ガイド
- link: /integrations/jira/
tag: ドキュメント
text: Datadog Jira インテグレーション
products:
- icon: cloud-security-management
- name: CSM Misconfigurations
+ name: Cloud Security Misconfigurations
url: /security/cloud_security_management/misconfigurations/
- icon: cloud-security-management
- name: CSM Identity Risks
+ name: Cloud Security Identity Risks
url: /security/cloud_security_management/identity_risks/
-title: クラウドセキュリティ管理の問題に対する Jira 課題の作成
+title: Cloud Security の問題に対して Jira issue を作成する
---
{{< product-availability >}}
-Cloud Security Management (CSM) のセキュリティ問題の影響を受けたリソースに対して Jira 課題を作成するには、[Jira インテグレーション][1]を使用します。Cloud Security Management 用の Jira は、[CSM Misconfigurations][3] および [CSM Identity Risks][4] に対応しています。
+[Jira インテグレーション][1] を利用すると、Cloud Security のセキュリティ問題の影響を受けているリソースについて Jira issue を作成できます。Cloud Security 向けの Jira は、[Cloud Security Misconfigurations][3] と [Cloud Security Identity Risks][4] で利用可能です。
**注**:
-- Jira 課題を作成するには、`security_monitoring_findings_write` 権限が必要です。Datadog のデフォルトロールおよび CSM で利用可能な詳細なロールベースのアクセス制御権限については、[ロールベースのアクセス制御][2]を参照してください。
+- Jira issue を作成するには `security_monitoring_findings_write` 権限が必要です。Datadog のデフォルト ロールや、Cloud Security で利用できる詳細なロール ベース アクセス コントロール権限については、[Role Based Access Control][2] を参照してください。
- 現時点では、1 つの指摘につき Jira の課題を 1 つ作成できます。
## Jira インテグレーションの構成
-CSM セキュリティ問題の Jira 課題を作成するには、[Jira インテグレーション][5]を構成する必要があります。詳細な手順については、[Jira][1] インテグレーションのドキュメントを参照してください。
+Cloud Security のセキュリティ問題から Jira issue を作成するには、[Jira インテグレーション][5] を設定する必要があります。手順の詳細は [Jira][1] インテグレーション ドキュメントを参照してください。
## 影響を受けたリソースの Jira 課題を作成する
{{< tabs >}}
-{{% tab "CSM Misconfigurations" %}}
+{{% tab "Cloud Security Misconfigurations" %}}
誤構成の影響を受けた 1 つ以上のリソースの Jira 課題を作成するには、
-1. [Misconfigurations Explorer][1] で誤構成を選択します。
+1. [Misconfigurations エクスプローラー][1] で誤構成を選択します。
2. **Resources Impacted** の下で、1 つまたは複数の指摘を選択します。
3. 上部に表示される **Actions** ドロップダウンメニューで、**Create Jira Issue** を選択します。
4. 単一の課題を作成するか、複数の課題 (リソースごとに 1 つずつ) を作成するかを選択します。
@@ -49,7 +49,7 @@ CSM セキュリティ問題の Jira 課題を作成するには、[Jira イン
また、スタンドアロン課題のサイドパネルから Jira 課題を作成することもできます。
-1. [Misconfigurations Explorer][1] で、グループ化フィルターを **Resources** に設定します。
+1. [Misconfigurations エクスプローラー][1] で、Group By フィルターを **Resources** に設定します。
2. リソースを選択します。
3. **Misconfigurations** タブで、誤構成を選択します。
4. **Create Jira Issue** をクリックします。
@@ -64,11 +64,11 @@ CSM セキュリティ問題の Jira 課題を作成するには、[Jira イン
{{% /tab %}}
-{{% tab "CSM Identity Risks" %}}
+{{% tab "Cloud Security Identity Risks" %}}
アイデンティティリスクの影響を受ける 1 つ以上のリソースに関する Jira 課題を作成するには、
-1. [Identity Risks Explorer][1] でアイデンティティリスクを選択します。
+1. [Identity Risks エクスプローラー][1] でアイデンティティ リスクを選択します。
2. **Resources Impacted** の下で、1 つまたは複数の指摘を選択します。
3. 上部に表示される **Actions** ドロップダウンメニューで、**Create Jira Issue** を選択します。
4. 単一の課題を作成するか、複数の課題 (リソースごとに 1 つずつ) を作成するかを選択します。
@@ -79,7 +79,7 @@ CSM セキュリティ問題の Jira 課題を作成するには、[Jira イン
また、スタンドアロン課題のサイドパネルから Jira 課題を作成することもできます。
-1. [Identity Risks Explorer][1] で、グループ化フィルターを **Resources** に設定します。
+1. [Identity Risks エクスプローラー][1] で、Group By フィルターを **Resources** に設定します。
2. リソースを選択します。
3. **Misconfigurations** タブで、アイデンティティリスクを選択します。
4. **Create Jira Issue** をクリックします。
diff --git a/content/ja/security/code_security/iast/setup/dotnet.md b/content/ja/security/code_security/iast/setup/dotnet.md
new file mode 100644
index 00000000000..ad1ca24461a
--- /dev/null
+++ b/content/ja/security/code_security/iast/setup/dotnet.md
@@ -0,0 +1,151 @@
+---
+aliases:
+- /ja/security_platform/application_security/getting_started/dotnet
+- /ja/security/application_security/getting_started/dotnet
+code_lang: dotnet
+code_lang_weight: 10
+further_reading:
+- link: /security/code_security/iast/#code-level-vulnerabilities-list
+ tag: ドキュメント
+ text: Supported code-level vulnerabilities list
+- link: https://www.datadoghq.com/blog/iast-datadog-code-security/
+ tag: ブログ
+ text: Datadog Code Security で本番環境のアプリケーションセキュリティを強化
+- link: https://www.datadoghq.com/blog/application-code-vulnerability-detection/
+ tag: ブログ
+ text: Datadog Code Security でコードの脆弱性を発見
+- link: https://www.datadoghq.com/blog/code-security-owasp-benchmark/
+ tag: ブログ
+ text: Datadog Code Security は IAST アプローチを採用し、OWASP Benchmark で 100% の精度を達成
+- link: /security/application_security/troubleshooting
+ tag: ドキュメント
+ text: Troubleshooting Application Security
+title: Enabling Code Security for .NET
+type: multi-code-lang
+---
+
+You can detect code-level vulnerabilities and monitor application security in .NET applications running in Docker, Kubernetes, Amazon ECS, and AWS Fargate.
+
+Follow these steps to enable Code Security in your service:
+
+1. [Datadog Agent][3] をバージョン 7.41.1 以上に更新します。
+2. Update your Datadog Tracing Library to at least the minimum version needed to turn on Code Security. For details, see [Library Compatibility][4] page.
+3. Add the `DD_IAST_ENABLED=true` environment variable to your application configuration. For example, on Windows self-hosted, run the following PowerShell snippet as part of your application start-up script:
+
+ ```sh
+ $target=[System.EnvironmentVariableTarget]::Process
+ [System.Environment]::SetEnvironmentVariable("DD_IAST_ENABLED","true",$target)
+ ```
+
+または、アプリケーションが動作している場所に応じて、次の方法のいずれかを使用します:
+
+ {{< tabs >}}
+{{% tab "Windows-Self-Hosted" %}}
+
+Windows コンソールで:
+
+```sh
+rem Set environment variables
+SET DD_IAST_ENABLED=true
+
+rem Start application
+dotnet.exe example.dll
+```
+{{% /tab %}}
+
+{{% tab "IIS" %}}
+
+Run the following PowerShell command as administrator to configure the necessary environment variables in the registry `HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment` and restart IIS.
+
+```sh
+$target=[System.EnvironmentVariableTarget]::Machine
+[System.Environment]::SetEnvironmentVariable("DD_IAST_ENABLED","true",$target)
+net stop was /y
+net start w3svc
+```
+{{% /tab %}}
+
+
+{{% tab "Linux" %}}
+
+アプリケーションの構成に以下を追加します。
+
+```
+DD_IAST_ENABLED=true
+```
+{{% /tab %}}
+
+{{% tab "Docker CLI" %}}
+
+Update your configuration container for APM by adding the following argument in your docker run command:
+
+```
+docker run -d --name app -e DD_IAST_ENABLED=true company/app:latest
+```
+{{% /tab %}}
+
+{{% tab "Dockerfile" %}}
+
+コンテナの Dockerfile に以下の環境変数の値を追加します。
+
+```
+ENV DD_IAST_ENABLED=true
+```
+{{% /tab %}}
+
+{{% tab "Kubernetes" %}}
+
+Update your deployment configuration file for APM and add the AAP environment variable:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_IAST_ENABLED
+ value: "true"
+```
+{{% /tab %}}
+
+{{% tab "AWS ECS" %}}
+
+以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。
+
+```yaml
+"environment": [
+ ...,
+ {
+ "name": "DD_IAST_ENABLED",
+ "value": "true"
+ }
+]
+```
+{{% /tab %}}
+
+{{% tab "AWS Fargate" %}}
+
+コンテナの Dockerfile に以下の行を追加します。
+
+```
+ENV DD_IAST_ENABLED=true
+```
+{{% /tab %}}
+ {{< /tabs >}}
+
+To see Code Security in action, browse your service and find code-level vulnerabilities in the [Vulnerability Explorer][4].
+
+{{< img src="/security/application_security/Code-Level-Vulnerability-Details-New.mp4" alt="Video showing Code Vulnerabilities" video="true" >}}
+
+さらにサポートが必要な場合は、[Datadog サポート][5]にお問い合わせください。
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/dd-trace-dotnet/releases/latest
+[2]: /ja/security/code_security/iast/setup/
+[3]: /ja/agent/versions/upgrade_between_agent_minor_versions/
+[4]: /ja/security/code_security/iast/setup/
\ No newline at end of file
diff --git a/content/ja/security/threats/supported_linux_distributions.md b/content/ja/security/threats/supported_linux_distributions.md
new file mode 100644
index 00000000000..355666ceac0
--- /dev/null
+++ b/content/ja/security/threats/supported_linux_distributions.md
@@ -0,0 +1,27 @@
+---
+title: Workload Protection がサポートする Linux ディストリビューション
+---
+
+Workload Protection は、以下の Linux ディストリビューションをサポートしています:
+
+| Linux ディストリビューション | 対応バージョン |
+|---------------------------------------------------------------|-------------------------|
+| Ubuntu LTS | 18.04、20.04、22.04 |
+| Debian | 10 以降 |
+| Amazon Linux 2 | Kernel 4.14 以上 |
+| Amazon Linux 2023 | すべてのバージョン |
+| SUSE Linux Enterprise Server | 12 と 15 |
+| Red Hat Enterprise Linux | 7、8、9 |
+| Oracle Linux | 7、8、9 |
+| CentOS | 7 |
+| Google Container Optimized OS (GKE のデフォルト) (Preview) | 93 以上 |
+
+**注:**
+
+- カスタムカーネルビルドはサポートされていません。
+- [eBPF が無効な環境向けの Workload Protection eBPF-less ソリューション][2] では、ptrace ベースの Datadog Agent を使用します。ptrace ベースの Datadog Agent は、Linux kernel 3.4.43 から 4.9.85 までをサポートします。
+- Cilium や Calico などのカスタム Kubernetes ネットワーク プラグインとの互換性については、[Workload Protection のトラブルシューティング][1] を参照してください。
+- データの収集は eBPF を用いて行われるため、Datadog では最低でも、基盤となる Linux kernel が 4.14.0+ のプラットフォーム、または eBPF 機能がバックポートされているプラットフォームが必要です (例: kernel 3.10 の Centos/RHEL 7 には eBPF 機能がバックポートされているため、サポート対象です)。
+
+[1]: /ja/security/workload_protection/troubleshooting/threats
+[2]: /ja/security/cloud_security_management/guide/ebpf-free-agent
\ No newline at end of file
diff --git a/content/ja/software_catalog/use_cases/_index.md b/content/ja/software_catalog/use_cases/_index.md
new file mode 100644
index 00000000000..4708e611bf6
--- /dev/null
+++ b/content/ja/software_catalog/use_cases/_index.md
@@ -0,0 +1,21 @@
+---
+aliases:
+- /ja/tracing/service_catalog/guides
+- /ja/service_catalog/guides
+- /ja/tracing/software_catalog/guides
+- /ja/software_catalog/guides
+title: ユースケース
+---
+
+チームが Datadog Software Catalog を活用して、ナレッジを集約し、プロセスを簡素化し、運用効率を高める方法を紹介します:
+
+{{< whatsnext desc=" " >}}
+ {{< nextlink href="/software_catalog/use_cases/api_management/" >}}API 管理{{< /nextlink >}}
+ {{< nextlink href="/software_catalog/use_cases/cloud_cost_management" >}}クラウド コスト管理{{< /nextlink >}}
+ {{< nextlink href="/tracing/software_catalog/use_cases/appsec_management" >}}アプリケーションと API の保護{{< /nextlink >}}
+ {{< nextlink href="/tracing/software_catalog/use_cases/dev_onboarding" >}}開発者オンボーディング{{< /nextlink >}}
+ {{< nextlink href="/tracing/software_catalog/use_cases/dependency_management" >}}依存関係管理{{< /nextlink >}}
+ {{< nextlink href="/tracing/software_catalog/use_cases/production_readiness" >}}本番準備{{< /nextlink >}}
+ {{< nextlink href="/tracing/software_catalog/use_cases/incident_response" >}}インシデント対応{{< /nextlink >}}
+ {{< nextlink href="/tracing/software_catalog/use_cases/pipeline_visibility" >}}CI パイプラインの可視化{{< /nextlink >}}
+{{< /whatsnext >}}
\ No newline at end of file
diff --git a/content/ja/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md b/content/ja/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md
new file mode 100644
index 00000000000..ed1fbd4f4bf
--- /dev/null
+++ b/content/ja/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md
@@ -0,0 +1,331 @@
+---
+aliases:
+- /ja/tracing/opentracing/nodejs
+- /ja/tracing/manual_instrumentation/nodejs
+- /ja/tracing/custom_instrumentation/nodejs
+- /ja/tracing/setup_overview/custom_instrumentation/nodejs
+- /ja/tracing/trace_collection/custom_instrumentation/nodejs
+- /ja/tracing/trace_collection/custom_instrumentation/dd_libraries/nodejs
+code_lang: dd-api
+code_lang_weight: 2
+description: Node.js アプリケーションを手動でインスツルメントしてカスタムトレースを Datadog に送信します。
+further_reading:
+- link: /tracing/trace_collection/trace_context_propagation/
+ tag: ドキュメント
+ text: トレースコンテキストの伝搬
+- link: tracing/other_telemetry/connect_logs_and_traces
+ tag: ドキュメント
+ text: ログとトレースの接続
+- link: tracing/glossary/
+ tag: ドキュメント
+ text: サービス、リソース、トレースの詳細
+title: Datadog API を使用した Node.js カスタム インスツルメンテーション
+type: multi-code-lang
+---
+
+
+
+対応するライブラリインスツルメンテーションを使用しない場合( [ライブラリの互換性][1]参照)、手動でコードをインスツルメントする必要があります。
+
+`dd-trace` ライブラリの機能性を拡張したり、アプリケーションのインスツルメントをより精確に制御するのに役立つ方法がライブラリにあります。
+
+## `ddtrace` ライブラリの機能性を拡張したり、アプリケーションのインスツルメントをより精確に制御するのに役立つ方法がライブラリにあります。
+
+内蔵のインスツルメンテーションおよびカスタムインスツルメンテーションは、有意義なオペレーションに関連するスパンを作成します。
+
+{{< tabs >}}
+{{% tab "ローカル" %}}
+
+タグを追加することで、意味のあるデータを含めるためにアクティブスパンにアクセスすることができます。
+
+```javascript
+const span = tracer.scope().active()
+```
+
+詳しくは [`Scope` の API 詳細][1]をご覧ください。
+
+タグはスパンで `setTag` または `addTags` メソッドを使用してスパンに追加できます。サポートされている値のタイプは、文字列、数値、オブジェクトです。
+
+```javascript
+// foo:bar タグを追加します
+span.setTag('foo', 'bar')
+
+// user_id:5 タグを追加します
+span.setTag('user_id', 5)
+
+// obj.first:foo および obj.second:bar タグを追加します
+span.setTag('obj', { first: 'foo', second: 'bar' })
+
+// foo:bar および baz:qux タグを追加します
+span.addTags({
+ foo: 'bar',
+ baz: 'qux'
+})
+```
+
+
+[1]: https://datadoghq.dev/dd-trace-js/interfaces/Scope.html
+{{% /tab %}}
+
+{{% tab "グローバル" %}}
+
+タグは、トレーサーで直接構成することにより、すべてのスパンに追加できます。これは、カンマ区切りの `DD_TAGS` 環境変数を使用するか、トレーサーの初期化で `tags` オプションを使用して実行できます。
+
+```javascript
+// DD_TAGS=foo:bar,baz:qux と同等
+tracer.init({
+ tags: {
+ foo: 'bar',
+ baz: 'qux'
+ }
+})
+
+// すべてのスパンにこれらのタグが追加されます
+```
+
+{{% /tab %}}
+
+{{% tab "コンポーネント" %}}
+
+一部の Datadog インテグレーションでは、スパンフックをサポートしています。スパンフックを使用すると、スパンが完了する直前に更新できます。これは、タグを変更したり、コードからアクセスできないスパンにタグを追加する場合に役立ちます。
+
+```javascript
+// tracer.init() の直後のエントリポイントの上部
+tracer.use('express', {
+ // リクエストスパンが終了する直前にフックが実行されます
+ hooks: {
+ request: (span, req, res) => {
+ span.setTag('customer.id', req.query.customer_id)
+ }
+ }
+})
+```
+
+詳しくは、[個々のプラグインの API 詳細][1]をご覧ください。
+
+
+[1]: https://datadoghq.dev/dd-trace-js/modules/plugins.html
+{{% /tab %}}
+
+{{% tab "エラー" %}}
+
+エラー オブジェクトに対応した特別な `error` タグを使うと、エラーをスパンに追加できます。これにより、エラーは 3 つのタグに分割されます: `error.type`、`error.message`、`error.stack`。
+
+```javascript
+try {
+ getIngredients()
+} catch (e) {
+ span.setTag('error', e)
+}
+
+```
+
+`tracer.trace()` または `tracer.wrap()` を使用している場合、これはエラーがスローされたときに自動的に行われます。
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## スパンの作成
+
+`dd-trace` ライブラリは、`tracer.init()` で[多くのライブラリとフレームワーク][1]に対応する[スパン][2]を自動生成します。しかし、使用しているコードを可視化したい場合はスパンの利用が便利です。
+
+Web リクエスト (例: `/make-sandwich`) 内で、`getIngredients()` や `assembleSandwich()` など、測定に役立つさまざまなオペレーションを行うことができます。
+
+{{< tabs >}}
+{{% tab "Synchronous" %}}
+
+Synchronous コードは、`tracer.trace()` でトレースできます。これにより、コールバックが戻ったときに自動的にスパンが終了し、スローされたエラーが自動的にキャプチャされます。
+
+```javascript
+app.get('/make-sandwich', (req, res) => {
+ const sandwich = tracer.trace('sandwich.make', { resource: 'resource_name' }, () => {
+ const ingredients = tracer.trace('get_ingredients', { resource: 'resource_name' }, () => {
+ return getIngredients()
+ })
+
+ return tracer.trace('assemble_sandwich', { resource: 'resource_name' }, () => {
+ assembleSandwich(ingredients)
+ })
+ })
+
+ res.end(sandwich)
+})
+```
+
+詳しくは [`tracer.trace()` の API 詳細][1]をご覧ください。
+
+
+[1]: https://datadoghq.dev/dd-trace-js/interfaces/Tracer.html#trace
+{{% /tab %}}
+
+{{% tab "Promise" %}}
+
+Promise は `tracer.trace()` でトレースできます。これにより、返された Promise が解決したときに自動的にスパンが終了し、拒否エラーが自動的にキャプチャされます。
+
+```javascript
+const getIngredients = () => {
+ return new Promise((resolve, reject) => {
+ resolve('Salami');
+ });
+};
+
+app.get('/make-sandwich', (req, res) => {
+ return tracer.trace('sandwich.make', { resource: 'resource_name' }, () => {
+ return tracer.trace('get_ingredients', { resource: 'resource_name' }, () => getIngredients())
+ .then((ingredients) => {
+ return tracer.trace('assemble_sandwich', { resource: 'resource_name' }, () => {
+ return assembleSandwich(ingredients)
+ })
+ })
+ }).then(sandwich => res.end(sandwich))
+})
+```
+
+詳しくは [`tracer.trace()` の API 詳細][1]をご覧ください。
+
+
+[1]: https://datadoghq.dev/dd-trace-js/interfaces/Tracer.html#trace
+{{% /tab %}}
+
+{{% tab "Async/await" %}}
+
+Async/await は `tracer.trace()` でトレースできます。これにより、返された Promise が解決したときに自動的にスパンが終了し、拒否エラーが自動的にキャプチャされます。
+
+```javascript
+app.get('/make-sandwich', async (req, res) => {
+ const sandwich = await tracer.trace('sandwich.make', { resource: 'resource_name' }, async () => {
+ const ingredients = await tracer.trace('get_ingredients', { resource: 'resource_name' }, () => {
+ return getIngredients()
+ })
+
+ return tracer.trace('assemble_sandwich', { resource: 'resource_name' }, () => {
+ return assembleSandwich(ingredients)
+ })
+ })
+
+ res.end(sandwich)
+})
+```
+
+詳しくは [`tracer.trace()` の API 詳細][1]をご覧ください。
+
+
+[1]: https://datadoghq.dev/dd-trace-js/interfaces/Tracer.html#trace
+{{% /tab %}}
+
+{{% tab "ラッパー" %}}
+
+コードを変更せずに既存の関数をラップすることができます。これは、コードを自分で制御できない関数をトレースするのに役立ちます。これは、最後の引数がコールバックの代わりにラップする関数であることを除いて、 `tracer.trace()` と同じ引数を取る `tracer.wrap()` で実行できます。
+
+```javascript
+
+// 関数が定義された後
+getIngredients = tracer.wrap('get_ingredients', { resource: 'resource_name' }, getIngredients)
+assembleSandwich = tracer.wrap('assemble_sandwich', { resource: 'resource_name' }, assembleSandwich)
+
+// ルートが定義されている場所
+app.get('/make-sandwich', (req, res) => {
+
+ const sandwich = tracer.trace('sandwich.make', { resource: 'resource_name' }, () => {
+ const ingredients = getIngredients()
+
+ return assembleSandwich(ingredients)
+ })
+
+ res.end(sandwich)
+})
+```
+
+詳しくは [`tracer.trace()` の API 詳細][1]をご覧ください。
+
+
+[1]: https://datadoghq.dev/dd-trace-js/interfaces/Tracer.html#wrap
+{{% /tab %}}
+{{< /tabs >}}
+
+## リクエストのフィルタリング
+
+アプリケーションのいくつかのリクエストはインスツルメンテーションすべきでない場合があります。よくあるケースは、ヘルスチェックやその他の合成トラフィックでしょう。これらのリクエストは `http` プラグインの `blocklist` や `allowlist` オプションで無視することができます。
+
+```javascript
+// tracer.init() の直後のエントリポイントの上部
+tracer.use('http', {
+ blocklist: ['/health', '/ping']
+})
+```
+
+この構成は、必要に応じてクライアントとサーバーで分割することができます。例:
+
+```javascript
+tracer.use('http', {
+ server: {
+ blocklist: ['/ping']
+ }
+})
+```
+
+さらに、Agent が Datadog に送信しないように、リソース名に基づいてトレースを除外することができます。この他、セキュリティや Agent の細かい設定については、[セキュリティ][3]ページや[不要なリソースの無視][4]で確認することができます。
+
+## dd-trace-api
+
+{{< callout btn_hidden="true" header="ddtrace-api はプレビューです!">}}
+dd-trace-api パッケージはプレビュー段階であり、必要な API 呼び出しをすべて含まない場合があります。より完全な機能が必要な場合は、前のセクションで説明した API を使用してください。
+
以下の手順は、プレビュー版の ddtrace-api パッケージで試してみたい場合にのみ必要です。{{< /callout >}}
+
+[dd-trace-api パッケージ][5] は、Datadog APM の Node.js 向けカスタム インスツルメンテーションで使用できる、安定した公開 API を提供します。このパッケージが実装しているのは API インターフェースだけで、スパンを生成して Datadog に送信するための基盤機能は含まれていません。
+
+インターフェース (`dd-trace-api`) と実装 (`dd-trace`) を分離することで、次のような利点があります:
+
+- You can rely on an API that changes less frequently and more predictably for your custom instrumentation
+- If you only use automatic instrumentation, you can ignore API changes entirely
+- シングル ステップとカスタムの両方のインスツルメンテーションを実装している場合でも、`dd-trace` パッケージの複数コピーに依存せずに済みます。
+
+`dd-trace-api` を使用するには:
+
+1. アプリに `dd-trace` と `dd-trace-api` のライブラリをインストールします。**注**: `dd-trace` はシングル ステップ インスツルメンテーションで自動的にインストールされますが、`dd-trace-api` はアプリに手動でインストールする必要があります。
+ ```shell
+ npm install dd-trace dd-trace-api
+ ```
+
+2. `dd-trace` を使用して Node.js アプリケーションにインスツルメンテーションを追加します。シングル ステップ インスツルメンテーションを利用している場合は、この手順は不要です。
+ ```shell
+ node --require dd-trace/init app.js
+ ```
+
+3. ここまで設定できたら、前のセクションの例と同じ要領でカスタム インスツルメンテーションを書けます。ただし、require するのは `dd-trace` ではなく `dd-trace-api` です。
+
+ 例:
+```javascript
+const tracer = require('dd-trace-api')
+const express = require('express')
+const app = express()
+
+app.get('/make-sandwich', (req, res) => {
+ const sandwich = tracer.trace('sandwich.make', { resource: 'resource_name' }, () => {
+ const ingredients = tracer.trace('get_ingredients', { resource: 'resource_name' }, () => {
+ return getIngredients()
+ })
+
+ return tracer.trace('assemble_sandwich', { resource: 'resource_name' }, () => {
+ assembleSandwich(ingredients)
+ })
+ })
+
+ res.end(sandwich)
+})
+```
+
+サポートされている API コールの全一覧は、そのパッケージの [API 定義][6] を参照してください。
+
+## その他の参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/tracing/compatibility_requirements/nodejs/
+[2]: /ja/tracing/glossary/#spans
+[3]: /ja/tracing/security
+[4]: /ja/tracing/guide/ignoring_apm_resources/
+[5]: https://npm.im/dd-trace-api
+[6]: https://github.com/DataDog/dd-trace-api-js/blob/master/index.d.ts
\ No newline at end of file