Dein lokales LLM Interface (Ollama)
Deine Anfrage an das LLM:
{{ prompt_value if prompt_value else '' }}
Generieren
{% if response %}
Antwort des LLM:
{{ response }}
{% endif %}