Adrien Guillon
Beta
·RAGHuggingFaceTypeScriptNLP

Chat with Adrien's CV

Agent conversationnel RAG : embeddings cosinus en mémoire via HuggingFace, sans dépendance cloud. Répond aux questions sur mon parcours, mes compétences et mes projets.

HuggingFace
Modèle
In-memory
Stockage
< 500ms
Latence
Aucune
Dépendance cloud

Problème

Un portfolio statique ne répond pas aux questions d'un recruteur. L'objectif était de créer un assistant capable de répondre à toute question sur mon parcours, mes compétences et mes projets : sans LLM cloud coûteux.

Solution

Pipeline RAG complet : le CV est découpé en chunks sémantiques, encodé en vecteurs via HuggingFace (all-MiniLM-L6-v2), stocké en mémoire. À chaque question, les chunks les plus proches (similarité cosinus) sont injectés dans le prompt comme contexte.

Architecture

CV Markdown : source de vérité
Chunking : découpage sémantique par section
Embedding : HuggingFace all-MiniLM-L6-v2
Store in-memory : vecteurs JSON (pas de base vectorielle)
Query → embed → cosine similarity → top-k chunks
Prompt augmenté → réponse contextuelle

Pourquoi sans base vectorielle ?

Pour un corpus de la taille d'un CV (~50 chunks), une base vectorielle type Pinecone ou Weaviate est sur-dimensionnée. Le calcul de similarité cosinus en mémoire sur un petit corpus est instantané et élimine toute dépendance infrastructure.

Chunking sémantique

Le CV est découpé par sections logiques (expériences, formations, compétences, projets) plutôt qu'en fenêtres de tokens fixes. Cela garantit que chaque chunk est cohérent sémantiquement et produit des réponses plus précises.

Stack complète

RAGHuggingFaceTypeScriptNLPCosine Similarity