From ffc99324209df1b8b00ec1c7c1fe9158ca6f536a Mon Sep 17 00:00:00 2001 From: Erik Behrends Date: Tue, 3 Sep 2024 16:55:19 +0200 Subject: [PATCH] meta prompting and finetuning gpt4o (German translation) --- pages/applications/_meta.de.json | 1 + pages/applications/finetuning-gpt4o.de.mdx | 31 ++++++++++++++++ pages/papers.de.mdx | 1 + pages/techniques/_meta.de.json | 1 + pages/techniques/meta-prompting.de.mdx | 43 ++++++++++++++++++++++ 5 files changed, 77 insertions(+) create mode 100644 pages/applications/finetuning-gpt4o.de.mdx create mode 100644 pages/techniques/meta-prompting.de.mdx diff --git a/pages/applications/_meta.de.json b/pages/applications/_meta.de.json index 769e0553c..621343e13 100644 --- a/pages/applications/_meta.de.json +++ b/pages/applications/_meta.de.json @@ -1,4 +1,5 @@ { + "finetuning-gpt4o": "Fine-Tuning mit GPT-4o", "function_calling": "Funktionsaufrufe", "generating": "Generierung von Daten", "synthetic_rag": "Generierung eines synthetischen Datensatzes für RAG", diff --git a/pages/applications/finetuning-gpt4o.de.mdx b/pages/applications/finetuning-gpt4o.de.mdx new file mode 100644 index 000000000..7f783ce2d --- /dev/null +++ b/pages/applications/finetuning-gpt4o.de.mdx @@ -0,0 +1,31 @@ +# Fine-Tuning mit GPT-4o-Modellen + +OpenAI hat kürzlich die Verfügbarkeit von Fine-Tuning für seine neuesten Modelle, GPT-4o und GPT-4o mini, [angekündigt](https://openai.com/index/gpt-4o-fine-tuning/). Diese neue Fähigkeit ermöglicht Entwicklern, die GPT-4o-Modelle für spezifische Anwendungsfälle zu spezialisieren, was die Leistung verbessert und die Ausgaben anpasst. + +## Details und Kosten des Fine-Tunings + +Entwickler können nun auf den `GPT-4o-2024-08-06` Checkpoint für das Fine-Tuning über das dedizierte [Fine-Tuning-Dashboard](https://platform.openai.com/finetune) zugreifen. Dieser Prozess ermöglicht die Anpassung von Antwortstruktur, Ton und die Einhaltung komplexer, bereichsspezifischer Anweisungen. + +Die Kosten für das Fine-Tuning von GPT-4o betragen \$25 pro Million Token für das Training und \$3,75 pro Million Eingabetoken sowie \$15 pro Million Ausgabetoken für das Inferieren. Diese Funktion steht ausschließlich Entwicklern in kostenpflichtigen Nutzungsebenen zur Verfügung. + +## Kostenlose Trainings-Token zur Erprobung + +Um die Erkundung dieser neuen Funktion zu fördern, bietet OpenAI bis zum 23. September eine zeitlich begrenzte Aktion an. Entwickler können täglich 1 Million kostenlose Trainings-Token für GPT-4o und 2 Millionen kostenlose Trainings-Token pro Tag für GPT-4o mini erhalten. Dies bietet eine gute Gelegenheit, zu experimentieren und innovative Anwendungen für feinabgestimmte Modelle zu entdecken. + +## Anwendungsfall: Emotionsklassifikation + +