Option Prompt Guard +20%

Documentation Hallucination Guard

Vérifiez vos réponses IA contre vos propres données. Container on-premise, données jamais chez ADLIBO.

Démarrage Rapide

1. Activer Hallucination Guard

Dans votre dashboard ADLIBO, allez dans Settings → Hallucination Guard → Activer (+20% sur votre abonnement Prompt Guard).

2. Déployer le Container

bash
# Pull the container
docker pull registry.adlibo.com/hallucination-guard:latest

# Run with your license key
docker run -d \
  -e ADLIBO_LICENSE_KEY=your_license_key \
  -e HG_ADLIBO_ENDPOINT=https://www.adlibo.com/api \
  -p 8080:8080 \
  registry.adlibo.com/hallucination-guard:latest

3. Connecter vos Sources

Connectez vos sources de données internes pour construire votre base de connaissances validée.

bash
# Via API
curl -X POST http://localhost:8080/api/sources \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "type": "website",
    "url": "https://docs.yourcompany.com",
    "crawlDepth": 3
  }'

4. Vérifier une Réponse

bash
curl -X POST http://localhost:8080/api/verify \
  -H "Content-Type: application/json" \
  -d '{
    "response": "Your LLM response to verify",
    "context": "Optional: original user question"
  }'

Réponse:

json
{
  "verified": true,
  "score": 85,
  "sources": [
    {
      "type": "internal",
      "url": "https://docs.yourcompany.com/warranty",
      "confidence": 100
    }
  ],
  "claims": [
    {
      "text": "warranty is 3 years",
      "verified": true,
      "source": "internal"
    }
  ]
}

Architecture

┌─────────────────────────────────────────────────────────────┐
│                    VOTRE INFRASTRUCTURE                     │
├─────────────────────────────────────────────────────────────┤
│                                                             │
│  ┌──────────────┐     ┌─────────────────────────────────┐  │
│  │  Votre App   │────▶│   ADLIBO HG Container           │  │
│  │  (LLM)       │◀────│   - Vérification réponses       │  │
│  └──────────────┘     │   - Base de connaissances       │  │
│                       │   - Score de confiance          │  │
│  ┌──────────────┐     └─────────────────────────────────┘  │
│  │  Vos Sources │                    │                     │
│  │  CRM, ERP,   │────────────────────┘                     │
│  │  Docs, Site  │     Tunnel SSH (22/443/2222/8022)        │
│  └──────────────┘                    │                     │
│                                      ▼                     │
└──────────────────────────────────────│─────────────────────┘
                                       │
                            ┌──────────▼──────────┐
                            │   ADLIBO Cloud      │
                            │   - License check   │
                            │   - Pattern updates │
                            │   - Multi-LLM       │
                            │   (pas de données)  │
                            └─────────────────────┘

Ports SSH disponibles : 22 (standard), 443 (HTTPS), 2222, 8022. Choisissez le port lors de l'enregistrement de votre clé.

Hiérarchie de Confiance

Source interne validée100%

TOUJOURS prioritaire. Override les LLMs même si tous disent le contraire.

Consensus LLM 4/480%
Consensus LLM 3/460%
Divergence LLM40%

Important: 5+ LLMs sont recommandés pour un consensus fiable. 2-3 LLMs offrent une protection partielle.

Référence API

POST /api/verify

Vérifie une réponse LLM contre vos sources.

json
{
  "response": "string (required) - The LLM response to verify",
  "context": "string (optional) - Original user question",
  "options": {
    "multiLlm": true,           // Enable multi-LLM validation
    "llmCount": 5,              // Number of LLMs (2-30)
    "includeSourceUrls": true   // Include source URLs in response
  }
}

POST /api/sources

Ajoute une source de données.

json
{
  "type": "website | api | file | database",
  "url": "string - URL or connection string",
  "crawlDepth": 3,    // For websites
  "refreshInterval": "daily | weekly | manual"
}

GET /api/score

Récupère votre score de protection actuel.

json
{
  "score": 75,
  "sources": {
    "connected": 12,
    "validated": 8
  },
  "lastUpdate": "2026-01-12T10:00:00Z"
}

Prêt à protéger vos réponses IA ?

Activez Hallucination Guard dans votre dashboard.