Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

meta prompting and finetuning gpt4o (German translation) #552

Open
wants to merge 1 commit into
base: main
Choose a base branch
from
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
1 change: 1 addition & 0 deletions pages/applications/_meta.de.json
Original file line number Diff line number Diff line change
@@ -1,4 +1,5 @@
{
"finetuning-gpt4o": "Fine-Tuning mit GPT-4o",
"function_calling": "Funktionsaufrufe",
"generating": "Generierung von Daten",
"synthetic_rag": "Generierung eines synthetischen Datensatzes für RAG",
Expand Down
31 changes: 31 additions & 0 deletions pages/applications/finetuning-gpt4o.de.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,31 @@
# Fine-Tuning mit GPT-4o-Modellen

OpenAI hat kürzlich die Verfügbarkeit von Fine-Tuning für seine neuesten Modelle, GPT-4o und GPT-4o mini, [angekündigt](https://openai.com/index/gpt-4o-fine-tuning/). Diese neue Fähigkeit ermöglicht Entwicklern, die GPT-4o-Modelle für spezifische Anwendungsfälle zu spezialisieren, was die Leistung verbessert und die Ausgaben anpasst.

## Details und Kosten des Fine-Tunings

Entwickler können nun auf den `GPT-4o-2024-08-06` Checkpoint für das Fine-Tuning über das dedizierte [Fine-Tuning-Dashboard](https://platform.openai.com/finetune) zugreifen. Dieser Prozess ermöglicht die Anpassung von Antwortstruktur, Ton und die Einhaltung komplexer, bereichsspezifischer Anweisungen.

Die Kosten für das Fine-Tuning von GPT-4o betragen \$25 pro Million Token für das Training und \$3,75 pro Million Eingabetoken sowie \$15 pro Million Ausgabetoken für das Inferieren. Diese Funktion steht ausschließlich Entwicklern in kostenpflichtigen Nutzungsebenen zur Verfügung.

## Kostenlose Trainings-Token zur Erprobung

Um die Erkundung dieser neuen Funktion zu fördern, bietet OpenAI bis zum 23. September eine zeitlich begrenzte Aktion an. Entwickler können täglich 1 Million kostenlose Trainings-Token für GPT-4o und 2 Millionen kostenlose Trainings-Token pro Tag für GPT-4o mini erhalten. Dies bietet eine gute Gelegenheit, zu experimentieren und innovative Anwendungen für feinabgestimmte Modelle zu entdecken.

## Anwendungsfall: Emotionsklassifikation

<iframe width="100%"
height="415px"
src="https://www.youtube.com/embed/UJ7ry7Qp2Js?si=ZU3K0ZVNfQjnlZgo" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture"
allowFullScreen
/>

Im obigen Leitfaden zeigen wir ein praktisches Beispiel für Fine-Tuning, das das Training eines Modells für die Emotionsklassifikation umfasst. Unter Verwendung eines [JSONL-formatierten Datensatzes](https://github.com/dair-ai/datasets/tree/main/openai), der Textproben enthält, die mit entsprechenden Emotionen gekennzeichnet sind, kann GPT-4o mini für die Klassifizierung von Texten nach emotionalem Ton feinabgestimmt werden.

Diese Demonstration hebt das Potenzial des Fine-Tunings hervor, die Modellleistung für spezifische Aufgaben zu verbessern und eine signifikante Steigerung der Genauigkeit im Vergleich zu Standardmodellen zu erreichen.

## Zugriff auf und Bewertung feinabgestimmter Modelle

Sobald der Fine-Tuning-Prozess abgeschlossen ist, können Entwickler auf ihre angepassten Modelle über den OpenAI-Spielplatz zugreifen und diese bewerten. Der Spielplatz ermöglicht interaktives Testen mit verschiedenen Eingaben und bietet Einblicke in die Leistung des Modells. Für eine umfassendere Bewertung können Entwickler das feinabgestimmte Modell über die OpenAI-API in ihre Anwendungen integrieren und systematische Tests durchführen.

Die Einführung von Fine-Tuning für GPT-4o-Modelle eröffnet neue Möglichkeiten für Entwickler, die die Stärken von LLMs für spezialisierte Aufgaben nutzen möchten.
1 change: 1 addition & 0 deletions pages/papers.de.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -4,6 +4,7 @@ Die folgenden sind die neuesten Papers (sortiert nach Veröffentlichungsdatum) z

## Überblicke

- [The Prompt Report: A Systematic Survey of Prompting Techniques](https://arxiv.org/abs/2406.06608) (June 2024)
- [Prompt Design and Engineering: Introduction and Advanced Methods](https://arxiv.org/abs/2401.14423) (Januar 2024)
- [A Survey on Hallucination in Large Language Models: Principles,Taxonomy, Challenges, and Open Questions](https://arxiv.org/abs/2311.05232) (November 2023)
- [An RL Perspective on RLHF, Prompting, and Beyond](https://arxiv.org/abs/2310.06147) (Oktober 2023)
Expand Down
1 change: 1 addition & 0 deletions pages/techniques/_meta.de.json
Original file line number Diff line number Diff line change
Expand Up @@ -2,6 +2,7 @@
"zeroshot": "Zero-Shot Prompting",
"fewshot": "Few-Shot Prompting",
"cot": "Chain-of-Thought Prompting",
"meta-prompting": "Meta Prompting",
"consistency": "Selbstkonsistenz",
"knowledge": "Generiertes Wissens-Prompting",
"prompt_chaining": "Prompt-Verkettung",
Expand Down
43 changes: 43 additions & 0 deletions pages/techniques/meta-prompting.de.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,43 @@
# Meta-Prompting

## Einführung

Meta-Prompting ist eine fortgeschrittene Prompting-Technik, die sich auf die strukturellen und syntaktischen Aspekte von Aufgaben und Problemen konzentriert, anstatt auf spezifische Inhaltsdetails. Das Ziel des Meta-Promptings ist es, eine abstraktere, strukturiertere Interaktionsweise mit großen Sprachmodellen (LLMs) zu konstruieren, wobei die Form und das Muster der Informationen über die traditionellen inhaltszentrierten Methoden betont werden.

## Schlüsselmerkmale

Laut [Zhang et al. (2024)](https://arxiv.org/abs/2311.11482) lassen sich die Schlüsselmerkmale des Meta-Promptings wie folgt zusammenfassen:

**1. Strukturorientiert**: Priorisiert das Format und Muster von Problemen und Lösungen über spezifischen Inhalt.

**2. Syntaxfokussiert**: Verwendet Syntax als leitende Vorlage für die erwartete Antwort oder Lösung.

**3. Abstrakte Beispiele**: Setzt abstrahierte Beispiele als Frameworks ein, die die Struktur von Problemen und Lösungen veranschaulichen, ohne sich auf spezifische Details zu konzentrieren.

**4. Vielseitig**: Anwendbar in verschiedenen Bereichen, fähig, strukturierte Antworten auf eine breite Palette von Problemen zu liefern.

**5. Kategorischer Ansatz**: Greift auf die Typentheorie zurück, um die Kategorisierung und logische Anordnung von Komponenten in einem Prompt zu betonen.

## Vorteile gegenüber Few-Shot-Prompting

[Zhang et al., 2024](https://arxiv.org/abs/2311.11482) berichten, dass sich Meta-Prompting und Few-Shot-Prompting dadurch unterscheiden, dass Meta-Prompting einen stärker strukturorientierten Ansatz verfolgt, im Gegensatz zum inhaltlich getriebenen Ansatz, den Few-Shot-Prompting betont.

Das folgende Beispiel, entnommen aus [Zhang et al. (2024)](https://arxiv.org/abs/2311.11482), veranschaulicht den Unterschied zwischen einem strukturierten Meta-Prompt und einem Few-Shot-Prompt zur Lösung von Problemen aus dem MATH-Benchmark:

!["Meta-Prompting"](../../img/techniques/meta-prompting.png)

Die Vorteile des Meta-Promptings gegenüber Few-Shot-Prompting umfassen:

**1. Token-Effizienz**: Reduziert die Anzahl der erforderlichen Tokens, indem der Fokus auf Struktur und nicht auf detaillierten Inhalt gelegt wird.

**2. Fairer Vergleich**: Bietet einen faireren Ansatz zum Vergleich verschiedener Problemlösungsmodelle, indem der Einfluss spezifischer Beispiele minimiert wird.

**3. Zero-Shot-Effizienz**: Kann als eine Form des Zero-Shot-Promptings angesehen werden, bei dem der Einfluss spezifischer Beispiele minimiert wird.

## Anwendungen

Indem es sich auf die strukturellen Muster des Problemlösens konzentriert, bietet Meta-Prompting einen klaren Fahrplan zur Navigation durch komplexe Themen und verbessert die Denkfähigkeiten von LLMs in verschiedenen Bereichen.

Es ist wichtig zu beachten, dass Meta-Prompting auch davon ausgeht, dass das LLM über ein innewohnendes Wissen über die jeweilige Aufgabe oder das Problem verfügt. Da LLMs sich auf unbekannte Aufgaben generalisieren können, ist es möglich, dass sie mit Meta-Prompting genutzt werden können, jedoch könnte die Leistung bei einzigartigeren und neuartigen Aufgaben, wie es beim Zero-Shot-Prompting der Fall ist, nachlassen.

Anwendungen, bei denen Meta-Prompting nützlich sein kann, umfassen, sind aber nicht beschränkt auf komplexe Denkaufgaben, mathematische Problemlösungen, Programmierherausforderungen, theoretische Anfragen.