Privé • On‑prem • Ubuntu
Chat temps réel, recherche augmentée (RAG) sur vos PDF/Docs, et automatisations — le tout hébergé chez vous. Compatible Ollama, ChromaDB/FAISS.
Indexation vectorielle (Chroma/FAISS), chunking fin, citations et surlignage des sources. Compatible PDF, DOCX, TXT, pages web.
Déployé sur Ubuntu, modèles via Ollama, données à domicile. Conforme à vos politiques internes.
REST/WS, webhooks, SDK JS/PHP. Chat embarqué sur vos sites et applis.
Chaque réponse peut citer ses passages sources et afficher un aperçu du document. Le pipeline est optimisé pour des contextes longs et des mises à jour rapides de l'index.
Exemple : surlignage des passages cités.
Hébergé par vous. Pas de facture au token.
Pour tests et POC
0€
Pour un service interne
—
Pour la production
—
Docker Compose, Ollama, ChromaDB/FAISS, FastAPI + proxy PHP. Démarrez en quelques minutes.
# 1) Dépendances
sudo apt update && sudo apt install -y docker.io docker-compose
# 2) Déployer
git clone https://example.com/ozi-chat-ai.git && cd ozi-chat-ai
cp .env.example .env # configurez vos clés
docker compose up -d
# 3) Accéder au dashboard
http://votre-serveur:8080
Oui, l'indexation est en streaming et segmentée. Les métadonnées (titre, auteur, pages) sont extraites quand elles existent.
Un CPU récent suffit pour commencer. Le GPU réduit fortement la latence (NVIDIA conseillée). Les embeddings et l'index peuvent tourner sans GPU.
Non, par défaut tout reste on‑prem. Les connecteurs externes sont opt‑in.