Benutzer-Werkzeuge

Webseiten-Werkzeuge


sonstige_dienste:ki-dienste:librechat:einstellungmodellparameter

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

sonstige_dienste:ki-dienste:librechat:einstellungmodellparameter [10:36 19. February 2025 ] – angelegt Mirco Schindlersonstige_dienste:ki-dienste:librechat:einstellungmodellparameter [17:25 19. February 2025 ] (aktuell) Hans-Ulrich Kiel
Zeile 5: Zeile 5:
 {{ :sonstige_dienste:ki-dienste:modellparameter_v0.7.3.png |}} {{ :sonstige_dienste:ki-dienste:modellparameter_v0.7.3.png |}}
  
-++++ Erläuterung der Modellparameter |+===== Erläuterung der Modellparameter ===== 
 + 
   * **Kontexttokens**: Dies bezieht sich auf die maximale Anzahl von Token (Einheiten von Wörtern oder Zeichen), die das Modell auf einmal "verstehen" oder verarbeiten kann. Bei vielen Sprachmodellen gibt es eine obere Grenze für die Anzahl von Token, die im Eingabekontext enthalten sein können. Wenn diese Grenze überschritten wird, muss der Text gekürzt oder geteilt werden.   * **Kontexttokens**: Dies bezieht sich auf die maximale Anzahl von Token (Einheiten von Wörtern oder Zeichen), die das Modell auf einmal "verstehen" oder verarbeiten kann. Bei vielen Sprachmodellen gibt es eine obere Grenze für die Anzahl von Token, die im Eingabekontext enthalten sein können. Wenn diese Grenze überschritten wird, muss der Text gekürzt oder geteilt werden.
   * **Antwort Tokens**: Dies bezieht sich auf die Tokens, die im generierten Output oder in der Antwort des Modells enthalten sind. Wenn das Modell eine Antwort erzeugt, besteht diese Antwort aus einer bestimmten Anzahl von Token. Es gibt oft auch eine maximale Begrenzung dafür, wie viele Token die Antwort des Modells haben kann, abhängig von der Implementierung oder den Nutzerpräferenzen.   * **Antwort Tokens**: Dies bezieht sich auf die Tokens, die im generierten Output oder in der Antwort des Modells enthalten sind. Wenn das Modell eine Antwort erzeugt, besteht diese Antwort aus einer bestimmten Anzahl von Token. Es gibt oft auch eine maximale Begrenzung dafür, wie viele Token die Antwort des Modells haben kann, abhängig von der Implementierung oder den Nutzerpräferenzen.
Zeile 13: Zeile 14:
   * **Presence Penalty** (Anwesenheitsstrafe): Ähnlich wie die Frequency Penalty, aber dieser Parameter bestraft Wörter basierend darauf, ob sie bereits im Text erschienen sind, unabhängig von ihrer Häufigkeit. Ein höherer Wert fördert die Einführung neuer, bisher nicht verwendeter Wörter oder Phrasen in den Antworten.   * **Presence Penalty** (Anwesenheitsstrafe): Ähnlich wie die Frequency Penalty, aber dieser Parameter bestraft Wörter basierend darauf, ob sie bereits im Text erschienen sind, unabhängig von ihrer Häufigkeit. Ein höherer Wert fördert die Einführung neuer, bisher nicht verwendeter Wörter oder Phrasen in den Antworten.
  
-++++ 
  
  
sonstige_dienste/ki-dienste/librechat/einstellungmodellparameter.txt · Zuletzt geändert: 17:25 19. February 2025 von Hans-Ulrich Kiel

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki