Skip to content

chore: ollama support + Developer experience

Merci pour cet exemple sympa d'usage de LLM, ça rend la philo plus accessible.

Voici quelques propositions, je peux séparer en plusieurs MR si besoin

  • possibilité d'utiliser un modele ollama en spécifiant les bonnes variables d'env
  • ajout d'un exemple pour faire tourner le PHP sous docker
  • ajout de scripts d'exemple

J'ai testé sur plusieurs modèles, mixtral:8x7b marche plutôt bien.

Edited by Julien Bouquillon

Merge request reports

Loading