Chat with Adrien's CV
Agent conversationnel RAG : embeddings cosinus en mémoire via HuggingFace, sans dépendance cloud. Répond aux questions sur mon parcours, mes compétences et mes projets.
Problème
Un portfolio statique ne répond pas aux questions d'un recruteur. L'objectif était de créer un assistant capable de répondre à toute question sur mon parcours, mes compétences et mes projets : sans LLM cloud coûteux.
Solution
Pipeline RAG complet : le CV est découpé en chunks sémantiques, encodé en vecteurs via HuggingFace (all-MiniLM-L6-v2), stocké en mémoire. À chaque question, les chunks les plus proches (similarité cosinus) sont injectés dans le prompt comme contexte.
Architecture
Pourquoi sans base vectorielle ?
Pour un corpus de la taille d'un CV (~50 chunks), une base vectorielle type Pinecone ou Weaviate est sur-dimensionnée. Le calcul de similarité cosinus en mémoire sur un petit corpus est instantané et élimine toute dépendance infrastructure.
Chunking sémantique
Le CV est découpé par sections logiques (expériences, formations, compétences, projets) plutôt qu'en fenêtres de tokens fixes. Cela garantit que chaque chunk est cohérent sémantiquement et produit des réponses plus précises.
Stack complète