Versionierung
Aktuelle Version von translate5 7.27.0 Changelogs nachgeführt bis Version 7.25.0
Wozu wird das ChatGPT-Plug-in verwendet?
Das Plug-in ermöglicht Ihnen, innerhalb translate5 Sprachressourcen zu erstellen, trainieren und verwenden, die auf Large Language Models (LLM) basieren. Es kann also aus verschiedenen, teilweise trainierbaren GPT-Modellen ausgewählt werden, die als Grundlage für eine Sprachressource dienen. Danach können diese LLM-Sprachressourcen bei Bedarf mit Prompts und auch Übersetzungsbeispielen trainiert werden. Zusätzlich können je LLM-Sprachressource über die Parameter „Temperature“, Top‑p, Presence und Frequency feingetuned werden.
Bereiche und Übersichten
In translate5 gibt es folgende Bereiche, die für die Verwaltung von GPT-Modellen relevant sind:
- Die Sprachressourcenverwaltung:
Hier werden auf GPT-Modellen basierende Sprachressourcen erstellt. - Das Fenster „OpenAI Model anpassen“:
Wird in der Sprachressourcenverwaltung aufgerufen und bietet die Möglichkeit, das Modell anhand verschiedener Parameter feintunen. - Das Fenster „OpenAI Model trainieren“:
Wird in der Sprachressourcenverwaltung aufgerufen und bietet die Möglichkeit, das Modell mit Prompts und Translation Memorys zu testen und zu trainieren. - In der Einstellungen unter „Promptverwaltung“:
Hier werden Prompts erfasst, die als Anweisungen verwendet werden können, wenn mit GPT-Modellen vorübersetzt wird.
Erstellung, Feintuning und Training von GPT-basierten Sprachressourcen sowie die Promptverwaltung stehen auch Projektmanagern zur Verfügung. |
Verfügbare Engines/Modelle
OpenAI
Die verfügbaren Modelle werden laufend von OpenAI abgefragt und entsprechen daher dem, was dort jeweils aktuell verfügbar ist.
Azure
Hier sind diejenigen Modelle verfügbar, die Sie in Ihrer AzureCloud verfügbar haben.
GPT-Sprachressource erstellen
Eine Sprachressource, das auf einem GPT-Modell basiert, wird wie jede andere Sprachressource auch über die Sprachressourcenverwaltung erstellt:
- Auf den -Button klicken, damit sich das Fenster „Sprachressource hinzufügen“ öffnet.
- Unter „Ressource“ die Option „ChatGPT (OpenAI / Azure)“ wählen.
- Unter „Engine/Model“ das gewünschte Modell auswählen.
Die zuoberst in der Liste erscheinenden Modelle sind trainierbar, was auch in der Bezeichnung entsprechend angegeben ist. - Unter „Name“ einen aussagekräftigen Namen eintragen.
- Über die Felder „Quellsprache“ und „Zielsprache“ die Sprachkombination festlegen, für welche die Sprachressource erstellt werden soll.
- Unter „Für diesen Kunden nutzen“ diejenigen Kunden auswählen, für deren die Sprachressource eingesetzt werden soll.
- Unter „Leserechte standardmäßig“ diejenigen Kunden auswählen, zu deren Projekte die Sprachressource standardmäßig mit Leserechten hinzugefügt werden soll.
- Bei Bedarf unter „Standardmäßig als Pivot verwenden“ diejenigen Kunden auswählen, für deren Projekte die Sprachressource in Projekten mit Pivot-Sprache verwendet werden soll.
- Unter „Farbe“ diejenige Farbe auswählen, mit der Matches aus dieser Sprachressource im Matches- und Konkordanzpanel eingefärbt werden sollen.
- Über den „Speichern“-Button bestätigen.
Die Sprachressource wird erstellt und ist gleich danach in der Sprachressourcenverwaltung sichtbar.
Tippen Sie direkt in Dropdown-Fenster, um den gewünschten Wert schneller zu finden. Für Sprachen können Sie beispielsweise direkt den ISO-Code eintippen: „de-de“ findet direkt „Deutsch (Deutschland) (de-DE)“. |
GPT-Sprachressource verwalten
Für GPT-Sprachressourcen gibt es folgende Optionen in der Sprachressourcenverwaltung:
Button | Erläuterung |
---|---|
Öffnet das Fenster „Sprachressource bearbeiten“, allerdings sind die Grundeinstellungen nicht mehr bearbeitbar. Es können aber Kunden ergänzt/entfernt werden, für die die Sprachressource:
| |
Löscht die Sprachressource. Die Löschung muss über ein sich öffnendes Fenster definitiv bestätigt werden. | |
Öffnet das Fenster „OpenAI Model anpassen“, über welche diverse Parameter für das Feintuning der GPT-Sprachressource gesteuert werden können. | |
Öffnet das Fenster „OpenAI Model trainieren“, über welches die GPT-Ressource, über welches es mit Prompts trainiert und getestet werden kann. |
Parameter für das Feintuning
Wie kreativ soll übersetzt werden?
Generation sensitivity / Temperature
Dieser Parameter bestimmt, wie „zufällig“ oder „kreativ“ das Sprachmodell bei der Texterzeugung sein soll. Eine niedrige Temperature bedeutet dabei, dass das Modell eher sachlich, vorausschaubar übersetzt, eine höhere Temperatur, dass es sehr kreativ und damit auch unvorhersehbar übersetzen kann.
Probability threshold / Top P
Der Parameter „Top P“ (auch als „nucleus sampling“ bezeichnet) ist eine nuancierte Alternative zur temperatur-basierten Probenahme. Er ist wie ein „Scheinwerfer“, der die wahrscheinlichen Wörter hervorhebt. Bei einem Standardwert von 1.0 werden alle Wörter berücksichtigt. Dieser Parameter kann dazu beitragen, die Verteilung der Wortwahl zu steuern und so die Relevanz und Kohärenz des generierten Textes zu gewährleisten.
Achtung: Bei einem sehr hohen Temperature-Wert kann ein Modell durchaus auch widersprüchlichen oder sinnlosen Inhalt generieren. | |
Es empfiehlt sich, entweder die Temperatur oder top P anzupassen, aber nicht beides. | |
Lesen Sie auch diese weiterführenden Informationen zu den beiden Parametern Temperature und Top P. |
Wie abwechslungsreich soll übersetzt werden?
Presence Penalty
Dieser Parameter wird dazu verwendet, das Modell dazu anzuregen, eine breite Palette an Tokens in den generierten Text aufzunehmen. Es handelt sich um einen Wert, der von der Log-Wahrscheinlichkeit eines Tokens jedes Mal abgezogen wird, wenn dieser generiert wird. Ein höherer Presence Penalty-Wert führt dazu, dass das Modell eher dazu neigt, Tokens zu generieren, die noch nicht im generierten Text enthalten sind.
Frequency Penalty
Dieser Parameter wird dazu verwendet, das Modell daran zu hindern, innerhalb des generierten Textes zu häufig dieselben Wörter oder Phrasen zu verwenden. Es handelt sich um einen Wert, der jedes Mal zur Log-Wahrscheinlichkeit eines Tokens hinzugefügt wird, wenn dieser im generierten Text auftritt. Ein höherer Frequency Penalty-Wert für führt dazu, dass das Modell bei der Verwendung wiederkehrender Tokens vorsichtiger vorgeht.
Lesen Sie auch diese weiterführenden Informationen zu den beiden Parametern Presence Penalty und Frequency Penalty. |
Max. target tokens (% of source tokens)
Ein GPT-Modell hat immer eine maximale Anzahl von Tokens, die in einer einzigen Anfrage verwendet werden können. Diese Anzahl berechnet sich als Summe der gesendeten Tokens und der zurückgegebenen Tokens. Für eine (Vor-)Übersetzung sind dies die Systemnachricht und der zu übersetzende Text oder Batch plus die zurückgegebenen Übersetzungen. Daher ist ein Verhältnis notwendig, um in einer gesendeten Anfrage „Platz“ für die generierte Übersetzung zu schaffen. Dies ist nur für Batch-Übersetzungen relevant, wie sie bei der Vorübersetzung verwendet werden.
Promptliste
Die Promptliste zeigt alle in translate5 erfassten Promptsets. Sie beinhaltet folgende Spalten:
Spalte | Erläuterung |
---|---|
Id | Hier wird die Id der Promptsets angezeigt, sie wird automatisch vergeben und hochgezählt. |
Name | Hier wird der Name der Promptsets angezeigt, der helfen soll, die Promptsets zu identifizieren. |
Anmerkung | Im Anmerkungsfeld können detailliertere Informationen zu den Promptsets erfasst werden. |
Sprachen | Hier sind die Quell- und Zielsprachenvariante(n) erfasst, für die die jeweiligen Promptsets erfasst wurde. Promptsets können für mehr als eine Sprachkombination erfasst werden. |
Systemmeldung | In dieser Spalte wird der effektive Inhalt der Promptsets angezeigt. |
Erstellt | Hier sind Datum sowie Uhrzeit eingetragen, damit der Zeitpunkt der Erfassung der jeweiligen Promptsets nachvollzogen werden kann. |
Letzte Änderung | Hier sind Datum sowie Uhrzeit eingetragen, zu dem/der die letzte Änderung am jeweiligen Promptset stattgefunden hat. |
Aktionen | In dieser Spalte gibt es folgende Buttons je Promptset: "". Öffnet das Promptset zur Bearbeitung im FensterLöscht das Promptset. Die Löschung muss in einem daraufhin erscheinenden Fenster bestätigt werden. |