DataShieldStandalone ou +25% addon PG

Protégez vos données avant d'utiliser ChatGPT

Tokenisation contextuelle via Cloud Proxy avant envoi au LLM. Les vraies valeurs sont restaurées au retour. Vos données sensibles ne quittent jamais votre périmètre.

100% Confédération Helvétique, hors CLOUD Act. Les LLMs ne voient jamais vos données réelles.

Deux modes d'utilisation

DataShield Standalone

Pour PME utilisant ChatGPT/Claude directement

Ideal pour les equipes qui utilisent les interfaces web des LLMs (ChatGPT, Claude, Gemini). Notre Cloud Proxy intercepte et tokenise avant envoi.

  • Zero-code: extension navigateur
  • 10 providers supportes
  • A partir de CHF 89/mois

DataShield + Prompt Guard

Pour developpeurs avec chatbot custom

Ajoutez DataShield a votre Prompt Guard existant pour une protection complete aller-retour. Meme quota de requetes, facturation coterm.

  • Integration API (1 ligne de code)
  • +25% sur votre plan PG
  • Full Stack Bundle -10%

Fonctionnalités Clés

Tokenisation Contextuelle

Vos données sensibles sont remplacées par des tokens AVANT d'atteindre le LLM.

Réhydratation Intelligente

Les vraies valeurs sont restaurées dans la réponse du LLM, selon vos permissions.

79+ Patterns DLP

12 domaines, 41 catégories: cartes bancaires, IBAN, SSN, API keys, mots de passe.

Cloud Proxy (10 LLMs)

Intégration zéro-code pour OpenAI, Anthropic, Google, Mistral, Azure, et 5 autres.

Domaines de Detection

DomainePatternsExemples
Financial12Cartes bancaires, IBAN, comptes bancaires
Healthcare8SSN, numeros AVS, IDs medicaux
Authentication15API keys, tokens, mots de passe, secrets
Personal10Emails, telephones, adresses, CNI
Corporate12Connection strings, AWS secrets, DB passwords
Government6Passeports, numeros fiscaux
Network8IPs privees, MAC addresses, ranges CIDR
CustomIllimiteVos patterns regex personnalises

Utilisation API

Endpoint

POST/api/v1/dlp/analyze

Request

bash
curl -X POST https://www.adlibo.com/api/v1/dlp/analyze \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "content": "Mon numero de carte est 4532-1234-5678-9012 et mon mot de passe est P@ssw0rd123",
    "domains": ["FINANCIAL", "AUTHENTICATION"],
    "action": "REDACTED"
  }'

Response

json
{
  "safe": false,
  "findings": [
    {
      "domain": "FINANCIAL",
      "type": "CREDIT_CARD",
      "severity": "CRITICAL",
      "match": "4532-1234-5678-9012",
      "position": { "start": 26, "end": 45 },
      "redacted": "4532-****-****-9012"
    },
    {
      "domain": "AUTHENTICATION",
      "type": "PASSWORD",
      "severity": "HIGH",
      "match": "P@ssw0rd123",
      "position": { "start": 70, "end": 81 },
      "redacted": "********"
    }
  ],
  "redactedContent": "Mon numero de carte est 4532-****-****-9012 et mon mot de passe est ********",
  "totalFindings": 2,
  "action": "REDACTED"
}

Exemples SDK - DataShield

JavaScript/TypeScript

javascript
import { Adlibo } from '@adlibo/sdk';

const client = new Adlibo(process.env.ADLIBO_API_KEY);

// Tokeniser les données sensibles avant envoi au LLM
const tokenized = await client.datashield.tokenize(userInput);

// Envoyer le texte tokenisé au LLM (les vraies données ne quittent jamais votre périmètre)
const llmResponse = await openai.chat.completions.create({
  model: 'gpt-4',
  messages: [{ role: 'user', content: tokenized.tokenizedText }]
});

// Réhydrater la réponse avec les vraies valeurs
const result = await client.datashield.rehydrate(
  llmResponse.choices[0].message.content,
  tokenized.sessionId
);

console.log(result.rehydratedText); // Réponse avec les vraies données

Python

python
from adlibo import Adlibo

client = Adlibo(api_key="YOUR_API_KEY")

# Tokeniser avant envoi au LLM
tokenized = client.datashield.tokenize(user_input)

# Le LLM ne voit que des tokens, jamais vos vraies données
llm_response = openai.ChatCompletion.create(
    model="gpt-4",
    messages=[{"role": "user", "content": tokenized.tokenized_text}]
)

# Réhydrater la réponse
result = client.datashield.rehydrate(
    llm_response.choices[0].message.content,
    tokenized.session_id
)

print(result.rehydrated_text)  # Vraies valeurs restaurées

Presets de Configuration

Configurations pre-definies pour les standards de conformite courants.

PCI-DSS

Protection des donnees de paiement

Credit CardsCVVExpiry

HIPAA

Donnees de sante protegees

SSNMedical IDsPrescriptions

RGPD / LPD

Donnees personnelles (PII)

EmailsPhonesAddresses

DevSecOps

Secrets et credentials

API KeysTokensPasswords

Détection Multilingue

DataShield détecte les données sensibles dans toutes les langues européennes principales: FR, DE, ES, IT, PT, NL, PL, et plus.

javascript
// DataShield détecte dans toutes les langues supportées
const result = await client.datashield.tokenize(
  "Ma carte bancaire est 4532-1234-5678-9012"
);

// result.tokenizedText = "Ma carte bancaire est [TOKEN_CARD_1]"
// result.tokenMappings = [{ token: "[TOKEN_CARD_1]", original: "4532-1234-5678-9012" }]

Patterns Personnalises

Ajoutez vos propres patterns regex pour detecter des donnees specifiques a votre organisation.

javascript
// Ajouter un pattern personnalise via l'API
await client.dlp.addPattern({
  name: "Internal Project Code",
  domain: "CUSTOM",
  regex: "PRJ-[A-Z]{2}-\d{6}",
  severity: "MEDIUM",
  description: "Internal project reference numbers",
  action: "REDACTED"
});

// Le pattern sera maintenant detecte automatiquement
const result = await client.dlp.analyze({
  content: "Working on PRJ-AB-123456 deadline",
  domains: ["CUSTOM"]
});
// -> Detecte et masque le code projet

Intégration SIEM

Les détections DataShield sont automatiquement envoyées à vos intégrations SIEM configurées.

Forwarding Automatique

Les events DataShield sont envoyés en temps réel vers Splunk, Elastic, Datadog, Syslog selon votre configuration SIEM.

Besoin d'aide ?

Notre équipe peut vous aider à configurer DataShield pour votre cas d'usage.