-
Arnaud:
- demo vLLM
-
Fabien:
- demo workflow pour le dev anadroid, agents en //
-
Pascal: 1 mois de code, code plus rapidement, livrer un produit en 1 sem au lieu de 3 mois, ça a bien marché notamment avec des golden master pour contrôler ce qu'il fait
- lib de test codée par IA -> mais 0 public facing code avec IA, enshittification, supporter une communauté ?
- claude en panne -> toute la boite s'arrête
-
Sam: pas bcp utilisé pour coder, PoC avec Copilot mais pas terrible
- expérimenté LMStudio, vieux PC Gamer
- install Ollama + OpenWebUI (similaire Chat bot)
- vidéo auto hébergement -> bouge très vite, modèle vite obsolètes, téléchargé même modèle plusieurs fois par app, projet gollama fait le bridge
- whisper = STT/TTS -> plugin ffmpeg
- plus lent en local
-
Vincent: sujet sérieux, dépendance à des providers extérieurs, habitude techno OSS vs. dépendre d'un service
- quid évolution du métier ? rien contre la génération de code
- intérêt pour LLMs locaux => réapproprier moyens de production !
-
RdV bi-mensuel, midi OK à voir pour le jour
-
proposer des sujets à l'avance -> pls sujets par session possible, expériences personnelles avec l'IA en + ou -
Fabien
-
script fait par Claude pour démarrer un nouveau feature
- démarrer un tmux
- créer un worktree
- lancer Claude
- démarre une session claude code sur une branch différente?
- merge session à la fin pour review
-
Q: vibe coding paralysis -> mental overload
-
R: sur 1/2h par semaine sur un projet perso -> OK
- pas 8h de suite!
- todo list
-
Q: quid des sessions en // ?
-
R: pas mal de temps de switcher, grosse fatigue
-
LLM très fort pour porter des applis entre langages
-
llamacpp + ollama -> utilisent OpenAI
-
natural language processing (book by hugging face)
-
utilise PoC avec RAG
- RAG intéressant en local?
-
utilisation des tools
-
micro-modèles performants
-
MCP?
- similaire aux tool calls
-
développer des services coopératifs et communautaires
-
contrer l'IA anxiety !
-
idée pour la prochaine fois
- exploration de HF