Modellauswahl & Optimierung
Übersicht
Für wen ist diese Seite? Fortgeschrittene Benutzer, die gezielt Modelle auswählen und Parameter anpassen möchten, um optimale Ergebnisse zu erzielen.
Was erwartet Sie?
Für Einsteiger: Wenn Sie neu bei LibreChat sind, empfehlen wir zunächst Standardwerte zu nutzen oder einen passenden Agenten zu wählen. Diese Seite ist für erfahrene Nutzer, die mehr Kontrolle wünschen.
Teil 1: Modellauswahl
Standardmodelle für typische Aufgaben
Allround / Büroarbeit: `gpt-4.1-mini` (OpenAI) oder `meta-llama-3.1-8b-instruct` (GWDG, kostenfrei)
Technische & wissenschaftliche Analysen: `qwen3-30b-a3b-instruct-2507` (GWDG)
Kreative Inhalte / Bilder: `llama-3.1-sauerkrautlm-70b`, `gpt-4.1-mini`
Aktuelle Informationen: „GPT‑4.1 Web Search„ oder „GPT‑5‑mini Web Search“ (Agenten)
Spezialisierte KI-Agenten im Überblick
LibreChat bietet verschiedene spezialisierte KI-Agenten, die für spezifische Aufgaben optimiert sind. Agenten kombinieren vorkonfigurierte Modelle, Parameter und Prompts für optimale Ergebnisse.
GPT-4.1 EverydayDraft-Assistent
GPT-5 LogicForge Expert
Ideal für: Komplexe Aufgaben wie anspruchsvolle Code-Generierung, tiefgehende Datenanalysen und Dateiüberarbeitungen
Verwendung:
Komplexe Programmcode-Generierung und Debugging
Tiefgehende Datenanalysen
Dateien überarbeiten und mehrere Quellen kombinieren
Aufgaben, die logische Ableitung und Analyse erfordern
Praktische Beispiele: Siehe Anwendungsbeispiele - Komplexe Aufgaben bearbeiten
Technische Details: Vorkonfigurierter Reasoning-Agent für Mathe, Logik, Code. Prompt-Kern: „Parse the request → Step-by-step plan → Show derivations → Provide tests → End with Next Steps“. Ideal mit GPT‑5/o4-mini + Use Responses API aktiviert.
GPT-5-mini DeepWiki Helper
Ideal für: Intelligente Analyse technischer Dokumentationen
Verwendung:
Praktische Beispiele: Im Marktplatz auswählen → „Wie funktioniert OAuth2 in Express.js?„ → Agent liefert DeepWiki-Ergebnisse mit Quellen, ohne den Browser zu wechseln.
Technische Details: Kombiniert GPT-5-mini mit DeepWiki für intelligente Analyse technischer Dokumentationen
GPT Bildgenerierung
Ideal für: Erstellung von Bildern basierend auf Textbeschreibungen
Verwendung:
Bilder aus Textbeschreibungen generieren
Wissenschaftliche Diagramme erstellen
Visuelle Konzepte visualisieren
Praktische Beispiele: Agent wählen → Prompt „Erstelle ein Bild von …“ → Bild generieren und herunterladen. Weitere Beispiele: Anwendungsbeispiele - Bilder generieren lassen
GPT-4.1 / GPT-5-mini Web Search
Ideal für: Aktuelle Informationen und Live-Websuche
Verwendung:
Tagesaktuelle Fragen beantworten
Neueste Nachrichten und Forschungsergebnisse recherchieren
Live-Websuche für aktuelle Informationen
Praktische Beispiele:
GPT-4.1 web search: Für tagesaktuelle Fragen („Neueste Nachrichten zu …?„) → Agent startet Echtzeitsuche → liefert aktuellste Infos
GPT-5-mini web search: Gleicher Ablauf, aber schneller und günstiger für leichtere Recherchen
-
Technische Details:
Reasoning-Agenten (Math & Logic, Code Debugging, Deep Analysis)
Ideal für: Komplexe mathematische Beweise, Logikrätsel, tiefes Debugging
Verwendung:
Technische Details: Bereitgestellte Reasoning-Presets für komplexe Fälle. Modelle, Parameter und Prompts sind bereits vorkonfiguriert.
Weitere Informationen: Siehe Abschnitt „Reasoning-Modelle“ weiter unten und FAQ - Reasoning-Modelle
Best Practices für Agenten
Gezielt einsetzen: Einfache Aufgaben weiterhin normalen Modellen überlassen, Agenten für spezialisierte Aufgaben nutzen (siehe oben „Ideal für“ bei jedem Agenten)
Beta-Funktionen im Blick behalten: Bildgenerierung kann kurzfristig deaktiviert werden
Agenten kombinieren: Für komplexe Aufgaben können Sie Agenten abwechselnd einsetzen (z.B. LogicForge Expert für Analyse, EverydayDraft-Assistent für Formatierung)
Reasoning-Modelle: Wann lohnt sich Reasoning?
Warum Reasoning trotzdem ein Thema bleibt:
Standardnutzer: Wählen einfach den passenden Agenten (z.B. „Deep Analysis“, „Math & Logic„, „Code Debugging“). Dort sind Modelle, Parameter und Prompts bereits vorkonfiguriert.
GPT‑5/GPT‑5.1: Erkennen die Komplexität Ihrer Frage automatisch und aktivieren bei Bedarf das interne „Thinking„. Sie müssen nichts einstellen.
Fortgeschrittene: Können weiterhin in den KI-Einstellungen `Reasoning Effort`, `Reasoning Summary` und `Verbosity` anpassen, wenn sie volle Kontrolle möchten.
Wann lohnt sich Reasoning?:
Mathematische Beweise, Logikrätsel, komplexes Debugging, mehrstufige Recherchen oder Entscheidungsbäume.
Aufgaben, die sich sauber in Zwischenschritte aufteilen lassen („Zeige mir Schritt für Schritt…“).
Wenn Sie nachvollziehbare Begründungen oder alternative Szenarien benötigen.
Nicht nötig ist Reasoning bei kurzen Faktenfragen, normalem Textschreiben oder schnellen Brainstorming-Sessions – dort sind `gpt-4.1-mini` oder leichte GWDG-Modelle deutlich schneller.
Empfohlene Reasoning-Modelle:
Komplexe Logik, Mathe, Debugging: Reasoning-Agenten oder `o4-mini`, `qwen3-30b-a3b-thinking-2507`, `deepseek-r1`
Wenn Reasoning-Antworten lange dauern
Vergewissern Sie sich, dass wirklich Reasoning erforderlich ist.
Reduzieren Sie den `Reasoning Effort` (Medium/Low) oder setzen Sie `Reasoning Summary` auf *Concise*.
Geben Sie eine klare Aufgabenbeschreibung bzw. laden Sie relevante Dateien hoch.
Nutzen Sie erst ein leichtes Modell zum Ideensammeln und schalten Sie für die finale Analyse auf einen Reasoning-Agenten.
Ausführlichere Tipps finden Sie im Abschnitt „Reasoning-Modelle: Häufige Fragen„ der FAQ.
Teil 2: Parameteroptimierung
Wo finde ich die Modellparameter?
Zuerst die Grundlagen lernen? Lesen Sie zuerst die
Benutzeroberfläche, um zu verstehen, wo Sie diese Einstellungen finden.
KI-Einstellungen im Überblick
Basis & Kontext
Benutzerdefinierter Name: Vergeben Sie einen eindeutigen Namen für die aktuelle Konfiguration (z. B. „Formelle E-Mails“), damit Presets leichter zugeordnet werden können.
Benutzerdefinierte Anweisungen: Dauerhafte Vorgaben wie „Antworte formell“ oder „Handle als Python-Experte“; Standard leer lassen, wenn keine Sonderrolle erforderlich ist.
Max. Kontext-Token: Obergrenze für das „Chat-Gedächtnis“. Nur bei extrem langen Dokumenten erhöhen.
Max. Antwort-Token: Steuerung der Antwortlänge – Richtwerte: 500 (kurz), 2000 (Analyse), >4000 (sehr lang).
Kreativität & Vielfalt
Temperature: Steuert Kreativität – 0.0‑0.3 fokussiert, 0.4‑0.7 Standard, 0.8‑1.0 kreativ.
Top P: Alternative zur Temperature; Standard 1.0 lassen und primär Temperature nutzen.
Frequency Penalty: Reduziert Wiederholungen einzelner Wörter (typisch 0‑0.5).
Presence Penalty: Fördert neue Themen; für Brainstorming 0.3‑0.6, sonst 0.0.
Dateien, Bilder & Suche
Stop-Sequenzen: Optionale Stop-Zeichen (z.B. „Ende“, „\n\n“) für Spezialfälle.
Anhänge erneut senden: Sendet Anhänge bei jeder Nachricht erneut – nur aktivieren, wenn häufig darauf verwiesen wird.
Bild-Detail: Niedrig = schnell/grob, Hoch = detailliert, Auto = automatisch; nur bei Bild-Uploads relevant.
Web-Suche: Bindet Live-Suchergebnisse ein; oft sind vorkonfigurierte Web-Suchagenten bequemer.
Reasoning & Antworten-API
Wichtig: Aktivieren Sie
„Responses-API nutzen“, bevor Sie Reasoning-Parameter anpassen. Nur dann sind die erweiterten Modellfunktionen verfügbar.
Responses-API nutzen: Aktiviert die neue Antworten-
API, Voraussetzung für Reasoning-Parameter und spezielle Funktionen.
Denkaufwand (Reasoning Effort): Nur bei GWDG-Reasoning-Modellen (Low = schnell, Medium = Standard, High = maximale Tiefe).
Zusammenfassung des Nachdenkens (Reasoning Summary): None/Knapp = kurze Ausgaben, Detailed = vollständige Denkpfade (nur bei Reasoning-Modellen).
Ausführlichkeit (Verbosity): Steuert die Gesamtlänge (Low = knapp, Medium = Standard, High = ausführlich).
Streaming & Limits
Streaming deaktivieren: Aktiviert = Ausgabe erfolgt erst am Ende, Standard = Ausgabe live; nur bei Bedarf ändern.
Datei-Token-Limit: Begrenzung der Tokens aus hochgeladenen Dateien; nur bei sehr großen Dateien erhöhen.
Typische Presets für häufige Aufgaben
Fakten & Recherche: Temperature 0.2, Top P 1.0, keine Penalties → präzise Antworten ohne Ausschweifen.
Code & Debugging: Temperature 0.2–0.3, Custom Instructions „Du bist ein Python-Experte„, Max Output ≥ 2000 Tokens.
Kreatives Schreiben: Temperature 0.8–1.0, Presence/Frequency Penalty 0.3–0.5 → vielfältige Ideen.
Formelle Texte: Temperature 0.5, Custom Instructions „Antworte in formeller Sprache“, Frequency Penalty 0.2.
Zusammenfassungen: Temperature 0.3, Max Output ca. 500 Tokens, Custom Instructions „Fasse prägnant zusammen„.
Reasoning (schnell): Use Responses
API aktivieren, Reasoning Effort low, Reasoning Summary Concise, Verbosity none.
Reasoning (ausgewogen): Use Responses
API aktivieren, Reasoning Effort medium, Reasoning Summary Auto, Verbosity middle.
Reasoning (tiefgehend): Use Responses
API aktivieren, Reasoning Effort high, Reasoning Summary Detailed, Verbosity middle.
Nützliche Funktionen
Modellparameter zurücksetzen
Als Voreinstellung speichern
Weiterführende Links