chore: ollama support + Developer experience
Merci pour cet exemple sympa d'usage de LLM, ça rend la philo plus accessible.
Voici quelques propositions, je peux séparer en plusieurs MR si besoin
- possibilité d'utiliser un modele ollama en spécifiant les bonnes variables d'env
- ajout d'un exemple pour faire tourner le PHP sous docker
- ajout de scripts d'exemple
J'ai testé sur plusieurs modèles, mixtral:8x7b
marche plutôt bien.
Modification effectuée par Julien Bouquillon