Inhaltsverzeichnis
Modellauswahl & Optimierung
Übersicht
Für wen ist diese Seite? Fortgeschrittene Benutzer, die gezielt Modelle auswählen und Parameter anpassen möchten, um optimale Ergebnisse zu erzielen.
Was erwartet Sie?
- Teil 1: Wann welches Modell wählen – inkl. Reasoning-Modelle und Agenten
- Teil 2: Alle Parameter verstehen und optimal einstellen
Teil 1: Modellauswahl
Standardmodelle für typische Aufgaben
- Allround / Büroarbeit: `gpt-4.1-mini` (OpenAI) oder `meta-llama-3.1-8b-instruct` (GWDG, kostenfrei)
- Technische & wissenschaftliche Analysen: `qwen3-30b-a3b-instruct-2507` (GWDG)
- Kreative Inhalte / Bilder: `llama-3.1-sauerkrautlm-70b`, `gpt-4.1-mini`
- Aktuelle Informationen: „GPT‑4.1 Web Search„ oder „GPT‑5‑mini Web Search“ (Agenten)
Spezialisierte KI-Agenten im Überblick
LibreChat bietet verschiedene spezialisierte KI-Agenten, die für spezifische Aufgaben optimiert sind. Agenten kombinieren vorkonfigurierte Modelle, Parameter und Prompts für optimale Ergebnisse.
GPT-4.1 EverydayDraft-Assistent
Ideal für: Übersetzungen, Textbearbeitung, einfache Code-Generierung und Datenanalysen
Verwendung:
- Übersetzungen zwischen verschiedenen Sprachen
- Texte verbessern, umformulieren oder zusammenfassen
- Einfache Programmcode-Generierung
- Basis-Datenanalysen
Praktische Beispiele: Siehe Anwendungsbeispiele - Texte bearbeiten, Programmcode generieren und Daten analysieren
GPT-5 LogicForge Expert
Ideal für: Komplexe Aufgaben wie anspruchsvolle Code-Generierung, tiefgehende Datenanalysen und Dateiüberarbeitungen
Verwendung:
- Komplexe Programmcode-Generierung und Debugging
- Tiefgehende Datenanalysen
- Dateien überarbeiten und mehrere Quellen kombinieren
- Aufgaben, die logische Ableitung und Analyse erfordern
Praktische Beispiele: Siehe Anwendungsbeispiele - Komplexe Aufgaben bearbeiten
Technische Details: Vorkonfigurierter Reasoning-Agent für Mathe, Logik, Code. Prompt-Kern: „Parse the request → Step-by-step plan → Show derivations → Provide tests → End with Next Steps“. Ideal mit GPT‑5/o4-mini + Use Responses API aktiviert.
GPT-5-mini DeepWiki Helper
Ideal für: Intelligente Analyse technischer Dokumentationen
Verwendung:
- Technische Dokumentationen durchsuchen und analysieren
- Code-Beispiele und API-Referenzen finden
- Technische Fragen mit Quellen beantworten
Praktische Beispiele: Im Marktplatz auswählen → „Wie funktioniert OAuth2 in Express.js?„ → Agent liefert DeepWiki-Ergebnisse mit Quellen, ohne den Browser zu wechseln.
Technische Details: Kombiniert GPT-5-mini mit DeepWiki für intelligente Analyse technischer Dokumentationen
GPT Bildgenerierung
Ideal für: Erstellung von Bildern basierend auf Textbeschreibungen
Verwendung:
- Bilder aus Textbeschreibungen generieren
- Wissenschaftliche Diagramme erstellen
- Visuelle Konzepte visualisieren
Praktische Beispiele: Agent wählen → Prompt „Erstelle ein Bild von …“ → Bild generieren und herunterladen. Weitere Beispiele: Anwendungsbeispiele - Bilder generieren lassen
GPT-4.1 / GPT-5-mini Web Search
Ideal für: Aktuelle Informationen und Live-Websuche
Verwendung:
- Tagesaktuelle Fragen beantworten
- Neueste Nachrichten und Forschungsergebnisse recherchieren
- Live-Websuche für aktuelle Informationen
Praktische Beispiele:
- GPT-4.1 web search: Für tagesaktuelle Fragen („Neueste Nachrichten zu …?„) → Agent startet Echtzeitsuche → liefert aktuellste Infos
- GPT-5-mini web search: Gleicher Ablauf, aber schneller und günstiger für leichtere Recherchen
- Weitere Beispiele: Anwendungsbeispiele - Suche/Recherche
Technische Details:
- GPT-4.1 web search: Kombiniert GPT-4.1 mit Live-Websuche für aktuelle Informationen
- GPT-5-mini web search: Kombiniert GPT-5-mini mit Live-Websuche für schnelle Recherchen
Reasoning-Agenten (Math & Logic, Code Debugging, Deep Analysis)
Ideal für: Komplexe mathematische Beweise, Logikrätsel, tiefes Debugging
Verwendung:
- Mathematische Beweise und Logikrätsel lösen
- Komplexes Code-Debugging
- Tiefgehende Analysen mit nachvollziehbaren Begründungen
Technische Details: Bereitgestellte Reasoning-Presets für komplexe Fälle. Modelle, Parameter und Prompts sind bereits vorkonfiguriert.
Weitere Informationen: Siehe Abschnitt „Reasoning-Modelle“ weiter unten und FAQ - Reasoning-Modelle
Best Practices für Agenten
- Gezielt einsetzen: Einfache Aufgaben weiterhin normalen Modellen überlassen, Agenten für spezialisierte Aufgaben nutzen (siehe oben „Ideal für“ bei jedem Agenten)
- Beta-Funktionen im Blick behalten: Bildgenerierung kann kurzfristig deaktiviert werden
- Agenten kombinieren: Für komplexe Aufgaben können Sie Agenten abwechselnd einsetzen (z.B. LogicForge Expert für Analyse, EverydayDraft-Assistent für Formatierung)
Reasoning-Modelle: Wann lohnt sich Reasoning?
Warum Reasoning trotzdem ein Thema bleibt:
- Standardnutzer: Wählen einfach den passenden Agenten (z.B. „Deep Analysis“, „Math & Logic„, „Code Debugging“). Dort sind Modelle, Parameter und Prompts bereits vorkonfiguriert.
- GPT‑5/GPT‑5.1: Erkennen die Komplexität Ihrer Frage automatisch und aktivieren bei Bedarf das interne „Thinking„. Sie müssen nichts einstellen.
- Fortgeschrittene: Können weiterhin in den KI-Einstellungen `Reasoning Effort`, `Reasoning Summary` und `Verbosity` anpassen, wenn sie volle Kontrolle möchten.
Wann lohnt sich Reasoning?:
- Mathematische Beweise, Logikrätsel, komplexes Debugging, mehrstufige Recherchen oder Entscheidungsbäume.
- Aufgaben, die sich sauber in Zwischenschritte aufteilen lassen („Zeige mir Schritt für Schritt…“).
- Wenn Sie nachvollziehbare Begründungen oder alternative Szenarien benötigen.
Nicht nötig ist Reasoning bei kurzen Faktenfragen, normalem Textschreiben oder schnellen Brainstorming-Sessions – dort sind `gpt-4.1-mini` oder leichte GWDG-Modelle deutlich schneller.
Empfohlene Reasoning-Modelle:
- Komplexe Logik, Mathe, Debugging: Reasoning-Agenten oder `o4-mini`, `qwen3-30b-a3b-thinking-2507`, `deepseek-r1`
Wenn Reasoning-Antworten lange dauern
- Vergewissern Sie sich, dass wirklich Reasoning erforderlich ist.
- Reduzieren Sie den `Reasoning Effort` (Medium/Low) oder setzen Sie `Reasoning Summary` auf *Concise*.
- Geben Sie eine klare Aufgabenbeschreibung bzw. laden Sie relevante Dateien hoch.
- Nutzen Sie erst ein leichtes Modell zum Ideensammeln und schalten Sie für die finale Analyse auf einen Reasoning-Agenten.
Ausführlichere Tipps finden Sie im Abschnitt „Reasoning-Modelle: Häufige Fragen„ der FAQ.
Teil 2: Parameteroptimierung
Wo finde ich die Modellparameter?
- Öffnen Sie das rechte Seitenmenü (siehe Benutzeroberfläche)
- Klicken Sie auf „KI-Einstellungen“
- Hier sehen Sie alle verfügbaren Parameter
KI-Einstellungen im Überblick
Basis & Kontext
- Benutzerdefinierter Name: Vergeben Sie einen eindeutigen Namen für die aktuelle Konfiguration (z. B. „Formelle E-Mails“), damit Presets leichter zugeordnet werden können.
- Benutzerdefinierte Anweisungen: Dauerhafte Vorgaben wie „Antworte formell“ oder „Handle als Python-Experte“; Standard leer lassen, wenn keine Sonderrolle erforderlich ist.
- Max. Kontext-Token: Obergrenze für das „Chat-Gedächtnis“. Nur bei extrem langen Dokumenten erhöhen.
- Max. Antwort-Token: Steuerung der Antwortlänge – Richtwerte: 500 (kurz), 2000 (Analyse), >4000 (sehr lang).
Kreativität & Vielfalt
- Temperature: Steuert Kreativität – 0.0‑0.3 fokussiert, 0.4‑0.7 Standard, 0.8‑1.0 kreativ.
- Top P: Alternative zur Temperature; Standard 1.0 lassen und primär Temperature nutzen.
- Frequency Penalty: Reduziert Wiederholungen einzelner Wörter (typisch 0‑0.5).
- Presence Penalty: Fördert neue Themen; für Brainstorming 0.3‑0.6, sonst 0.0.
Dateien, Bilder & Suche
- Stop-Sequenzen: Optionale Stop-Zeichen (z.B. „Ende“, „\n\n“) für Spezialfälle.
- Anhänge erneut senden: Sendet Anhänge bei jeder Nachricht erneut – nur aktivieren, wenn häufig darauf verwiesen wird.
- Bild-Detail: Niedrig = schnell/grob, Hoch = detailliert, Auto = automatisch; nur bei Bild-Uploads relevant.
- Web-Suche: Bindet Live-Suchergebnisse ein; oft sind vorkonfigurierte Web-Suchagenten bequemer.
Reasoning & Antworten-API
- Responses-API nutzen: Aktiviert die neue Antworten-API, Voraussetzung für Reasoning-Parameter und spezielle Funktionen.
- Denkaufwand (Reasoning Effort): Nur bei GWDG-Reasoning-Modellen (Low = schnell, Medium = Standard, High = maximale Tiefe).
- Zusammenfassung des Nachdenkens (Reasoning Summary): None/Knapp = kurze Ausgaben, Detailed = vollständige Denkpfade (nur bei Reasoning-Modellen).
- Ausführlichkeit (Verbosity): Steuert die Gesamtlänge (Low = knapp, Medium = Standard, High = ausführlich).
Streaming & Limits
- Streaming deaktivieren: Aktiviert = Ausgabe erfolgt erst am Ende, Standard = Ausgabe live; nur bei Bedarf ändern.
- Datei-Token-Limit: Begrenzung der Tokens aus hochgeladenen Dateien; nur bei sehr großen Dateien erhöhen.
Typische Presets für häufige Aufgaben
- Fakten & Recherche: Temperature 0.2, Top P 1.0, keine Penalties → präzise Antworten ohne Ausschweifen.
- Code & Debugging: Temperature 0.2–0.3, Custom Instructions „Du bist ein Python-Experte„, Max Output ≥ 2000 Tokens.
- Kreatives Schreiben: Temperature 0.8–1.0, Presence/Frequency Penalty 0.3–0.5 → vielfältige Ideen.
- Formelle Texte: Temperature 0.5, Custom Instructions „Antworte in formeller Sprache“, Frequency Penalty 0.2.
- Zusammenfassungen: Temperature 0.3, Max Output ca. 500 Tokens, Custom Instructions „Fasse prägnant zusammen„.
- Reasoning (schnell): Use Responses API aktivieren, Reasoning Effort low, Reasoning Summary Concise, Verbosity none.
- Reasoning (ausgewogen): Use Responses API aktivieren, Reasoning Effort medium, Reasoning Summary Auto, Verbosity middle.
- Reasoning (tiefgehend): Use Responses API aktivieren, Reasoning Effort high, Reasoning Summary Detailed, Verbosity middle.
Nützliche Funktionen
Modellparameter zurücksetzen
- Setzt alle Werte auf Werkseinstellungen zurück – ideal nach Experimente.
Als Voreinstellung speichern
- Speichert die aktuelle Konfiguration (z.B. „Formelle E-Mails“, „Code-Hilfe„, „Reasoning-Analyse“) für schnellen Wechsel zwischen Aufgaben.

