L'auteur, juriste de formation sans background technique, relate son expérience d'apprentissage du fine-tuning de modèles de langage (LLM) via l'interface WebUI Text Generation. Motivé par le défi personnel et l'objectif futur d'adapter un modèle au traitement de documents juridiques, il décrit son parcours semé d'erreurs, depuis la sélection d'outils inadaptés (Ollama, LM Studio) jusqu'à l'installation problématique de Text Generation WebUI et le choix incorrect du format de modèle (GGUF au lieu de Safetensors).
L'article détaille les étapes clés de son apprentissage, incluant la découverte que les outils initialement recommandés par les LLM (Grok, Qwen, etc.) ne supportent pas l'entraînement, l'installation d'une version tronquée de WebUI sans les backends nécessaires, et l'incompatibilité du format GGUF avec le fine-tuning via LoRA. L'auteur souligne les limites des assistants IA, sujets aux hallucinations et omissions, et l'importance d'une compréhension minimale du domaine pour évaluer leurs réponses.
Il aborde également le choix d'une tâche simple (traduction en « langage oiseau » par doublement des voyelles) pour tester le fine-tuning, et les problèmes rencontrés dans la préparation des données. L'expérience, bien que ponctuée d'échecs, lui a permis de tirer des leçons pratiques sur la nécessité de vérifier les formats de modèles, la compatibilité des outils et la formulation précise des requêtes aux LLM.