Technologische Neuigkeiten, Bewertungen und Tipps!

Prompt Engineering: Wie Sie mit der KI sprechen, um das zu bekommen, was Sie wollen

Hinweis: Der folgende Artikel hilft Ihnen dabei: Prompt Engineering: Wie Sie mit der KI sprechen, um das zu bekommen, was Sie wollen

Ist Prompt Engineering ein Prozess, der versucht, genaue, logische und konsistente Antworten aus einem KI-Sprachmodell zu erhalten? Oder ist es eine Möglichkeit, die Fehler in einem Sprachmodell zu finden und sie dann zu beheben, um das perfekte Modell der künstlichen Intelligenz zu erhalten, was das „prompte Engineering“ zunichte macht?

In diesem Artikel konzentrieren wir uns auf ChatGPT, da es derzeit das beliebteste Modell ist. Aber nur für den Fall, dass dieses KI-Tool für Sie neu ist, empfehle ich Ihnen, zuerst unseren Artikel „ChatGPT für Anfänger“ zu lesen. Wir werden uns auch Eingabeaufforderungen für Bildgeneratoren wie DALLE 2 ansehen.

Ich habe ein paar Artikel über dieses LLM (großes Sprachmodell) geschrieben und festgestellt, dass es nicht so intelligent ist. ChatGPT macht Fehler und kann sogar unter Halluzinationen leiden (deshalb müssen Sie lernen, wie man für KI optimiert).

Gleichzeitig war ich Zeuge des Reparaturprozesses, an dem vermutlich die Ingenieure beteiligt waren.

OpenAI, die Erfinder von ChatGPT, bitten um Benutzerfeedback, verfolgen Rezensionen und Kritik und ergreifen Maßnahmen. Probleme, die ChatGPT vor vier bis sechs Wochen hatte, sind jetzt verschwunden (und diese ständige Iteration und Verbesserung hat ChatGPT wirklich dabei geholfen, weiter zu wachsen).

Mein Fazit: Die Aufforderung hilft, ChatGPT zu reparieren. Aber wird es Prompts gelingen, aus ChatGPT ein perfektes Sprachmodell zu erstellen? Nur die Zukunft wird es zeigen.

Was ist Prompt Engineering?

Heutzutage bezieht sich „Prompt Engineering“ im Kontext von KI-Sprachmodellen auf die Gestaltung effektiver Eingabeaufforderungen oder Eingaben, die verwendet werden können, um gewünschte und konsistente Ausgaben aus einem Modell zu generieren.

Sprachmodelle sind Systeme der künstlichen Intelligenz, die natürliche Sprache verarbeiten und als Reaktion auf Aufforderungen oder Eingaben Text generieren.

Bei der praktischen Eingabeaufforderungsentwicklung geht es darum, den richtigen Eingabeaufforderungstyp auszuwählen, den Wortlaut und die Struktur der Eingabeaufforderung zu verfeinern und andere Parameter wie die Länge der Eingabeaufforderung, die Temperatur der generierten Ausgabe und die Vielfalt der generierten Antworten anzupassen.

Durch die sorgfältige Entwicklung von Eingabeaufforderungen können KI-Sprachmodelle für verschiedene Aufgaben verwendet werden, beispielsweise für die Sprachübersetzung, die Beantwortung von Fragen und die Textgenerierung.

Und KI wird von Tag zu Tag intelligenter und effizienter. Langsam aber sicher scheint die KI zu glauben, dass sie jede Frage beantworten und jede Aufgabe erledigen kann. Obwohl dies vernünftig erscheinen mag, hat es auch seine Schattenseiten. Beispielsweise ist generative KI unvorhersehbar und produziert oft Kauderwelsch oder Geschwafel.

Zusammenfassend lässt sich sagen, dass Prompt Engineering heute für die Entwicklung und Verwendung von KI-Sprachmodellen unerlässlich ist.

Wie verfasse ich Eingabeaufforderungen?

In diesem Leitfaden wird die Verwendung von Eingabeaufforderungen mit LLMs wie ChatGPT behandelt. Eingabeaufforderungen sind eine großartige Möglichkeit, mit LLMs zu interagieren und sie dazu zu bringen, Text zu einem bestimmten Thema zu generieren.

Note: Da OpenAI ChatGPT kontinuierlich verbessert, gibt es keine Garantie dafür, dass Ihre perfekte und effektive Eingabeaufforderung von heute morgen oder in der Zukunft die gleichen Antworten liefert.

Während meiner Recherche habe ich viele Artikel und Dokumente gelesen. Einige enthielten Beispiele, und in vielen Fällen unterscheiden sich die Antworten von ChatGPT jetzt von denen zum Zeitpunkt der Veröffentlichung der Artikel.

Im Allgemeinen wird von Ihnen erwartet, dass Sie es wiederholt versuchen, bis Sie eine Antwort erhalten, die Ihren Erwartungen möglichst nahe kommt. Eine wirksame Aufforderung ist wie eine Reihe von Anweisungen oder eine Frage, die Sie einem Modell stellen. Es können auch weitere Informationen, etwa Eingaben oder Beispiele, enthalten sein.

Eine Standardaufforderung hat das folgende Format: ; Es kann auch das Format einer Frage und Antwort annehmen.

Q: ?
A:

Es ist vorzuziehen, das KI-Modell auf einfache Weise anzuleiten und einige Beispiele zu nennen. Diese Art von Eingabeaufforderung wird als „Few-Shot-Eingabeaufforderung“ bezeichnet.

Machen Sie Angaben zum Format der Ausgabe. Wie Sie sehen, sage ich: „Bitte folgen Sie den Beispielen.“ Wenn ich diese Zeile weglasse, antwortet ChatGPT wie folgt:

Eine gute Aufforderung kann jedoch je nach Aufgabe viele Formen annehmen. Es kann Folgendes enthalten:

  • Anweisung – eine Aufgabe, die das KI-Modell ausführen muss.
  • Kontext – Informationen, die dazu beitragen, eine bessere Reaktion zu erzielen.
  • Eingabedaten – Eingabe oder eine Frage, die beantwortet werden muss.
  • Ausgabeindikator – das Format der Ausgabe.

Nicht alle dieser Komponenten sind erforderlich. Wir werden später einige konkrete Beispiele untersuchen.

Grundprinzipien für schnelles Schreiben

Konzentrieren wir uns nun auf einige Grundprinzipien für das Schreiben von Eingabeaufforderungen.

Fangen Sie einfach an – Wenn Sie bessere Ergebnisse erzielen möchten, beginnen Sie mit einfachen Eingabeaufforderungen und fügen Sie weitere Elemente und Kontext hinzu. Dadurch werden Sie Ihre Ergebnisse nach und nach verbessern.

Anweisung – Um effektive Eingabeaufforderungen für einfache Aufgaben zu entwerfen, können Sie Befehle wie „Schreiben“, „Klassifizieren“, „Zusammenfassen“, „Übersetzen“, „Ordnen“ usw. verwenden. Diese Befehle weisen das große Sprachmodell an, welche Aufgabe es ausführen soll aufführen. Es ist jedoch wichtig, mit verschiedenen Schlüsselwörtern, Kontexten und Daten zu experimentieren, um herauszufinden, was für Ihren spezifischen Anwendungsfall am besten funktioniert.

Der Kontext sollte relevant und spezifisch für die Aufgabe sein, die Sie ausführen möchten. Je detaillierter und relevanter der Kontext für die Aufgabe ist, desto effektiver wird die Aufforderung sein. Durch das Experimentieren mit verschiedenen Anweisungen, Schlüsselwörtern und Daten können Sie den besten Ansatz für Ihre spezielle Aufgabe finden.

Sei genau – Um gute Ergebnisse zu erzielen, ist es entscheidend, genau anzugeben, was das Modell für maschinelles Lernen tun soll.

Je detaillierter und beschreibender die Eingabeaufforderung ist, desto besser. Dies ist besonders wichtig, wenn Sie ein gewünschtes Ergebnis oder einen gewünschten Generationsstil im Auge haben.

Keine spezifischen Token oder Schlüsselwörter garantieren bessere Ergebnisse; Wichtiger ist ein geeignetes Format und eine beschreibende Eingabeaufforderung.

Die Bereitstellung von Beispielen in einer guten Eingabeaufforderung ist eine effektive Möglichkeit, die gewünschte Ausgabe in bestimmten Formaten zu erhalten.

Seien Sie direkt und präzise – Erläutern Sie Ihre Erwartungen so weit wie möglich. Geben Sie beispielsweise genau an, wie lange die Ausgabe dauern soll, und fügen Sie die erwarteten Schlüsselwörter hinzu.

Fordert die Kunstgeneratoren DALLE-2 und Midjourney auf

Diese Bewerbungen haben viel Kunst verarbeitet und verfügen offensichtlich über ausgezeichnete Kenntnisse der Künste. Folglich kann es für diese Modelle ziemlich einfach sein, Kunst zu schaffen, da der für die Schaffung von Kunst erforderliche Wortschatz relativ gering ist.

Die oben genannten Anwendungen erstellen 2D-Darstellungen von 2D- und 3D-Kunstwerken.

Wenn Sie bereit sind, KI-Kunst zu erstellen. Hier ein paar Tipps.

  • Aufforderungen können nur aus ein paar Worten bestehen, wie zum Beispiel „Terrakotta-Krieger sitzen um einen Tisch“.
  • DALL-E 2 ist künstlerisch ausgerichtet, was bedeutet, dass die KI viel Kunst verarbeitet hat. Das bedeutet, dass bestimmte Tricks zu interessanten Ergebnissen führen können. Die Erwähnung eines bestimmten Kunststils wird DALL-E 2 dazu ermutigen, sich von der Zeit inspirieren zu lassen, in der dieser Stil in Mode war, beispielsweise vom „Surrealismus“. Weitere Beispiele sind Diesel-Punk, Post-Apokalyptik und Cyberpunk.
  • Wenn Sie Fotograf sind, ist DALL-E 2 das perfekte Werkzeug! Berücksichtigen Sie bestimmte Ansichten, Winkel, Entfernungen, Beleuchtung und Aufnahmetechniken (oder sogar Objektive), um zu sehen, wie DALL-E 2 reagiert.
  • KI-Generatoren haben Probleme mit Gesichtern, es sei denn, sie haben eine bestimmte Eingabeaufforderung. Wenn Ihnen das Gesicht auf Ihrem Bild nicht gefällt, können Sie es noch einmal versuchen und weitere Details zum Gesicht hinzufügen, z. B. welche Art von Ausdruck Sie wünschen, wohin das Gesicht schauen soll usw.
  • Bilder können je nach Ziel auf vielfältige Weise bearbeitet werden. Sie können Elemente ausschneiden und einfügen, um die Komposition zu ändern oder Objekte zu entfernen, die Sie nicht im Bild haben möchten. Mit den richtigen Werkzeugen können Sie sogar den Hintergrund eines Bildes ändern, um ihm ein neues Aussehen zu verleihen.

Wenn Sie sich für KI-Kunstwerke interessieren, empfehle ich Ihnen, den Abschnitt „Prompt Engineering Resources“ zu lesen.

Tipps und Tricks

  • Konzentrieren Sie sich darauf, zu sagen, was es tun soll, und NICHT, was nicht einbezogen werden soll. Dadurch wird mehr Spezifität gefördert und der Fokus auf die Details gelegt, die zu guten Antworten des Modells führen.
  • Verwenden Sie Personas oder Rollen, um gezielte Antworten von ChatGPT zu erhalten, z. B. „Sie sind ein Student …“ oder „Sie sind ein Lehrer …“
  • Schnelle Injektion ist eine Technik, um die Ausgabe eines Sprachmodells zu kapern. (Wir können Modelle dazu bringen, den ersten Teil der Eingabeaufforderung zu ignorieren.) Twitter Benutzer haben schnell herausgefunden, dass sie ihren Text in den Bot einfügen können, damit dieser sagt, was sie wollen. Das funktioniert, weil Twitter nimmt den Tweet eines Benutzers und verkettet ihn mit seiner Eingabeaufforderung, um die endgültige Eingabeaufforderung zu bilden, die er an ein LLM weitergibt. Dies bedeutet, dass jeder Text die Twitter Die vom Benutzer in seinen Tweet eingefügten Informationen werden an das LLM weitergeleitet.
  • Sofortiges Auslaufen – Sie können versuchen, die ursprüngliche Eingabeaufforderung aus einer App wie AIPRM zu extrahieren, indem Sie Ihre Anweisung zu der Eingabe hinzufügen, die die Eingabeaufforderung erwartet. Wenn Sie beispielsweise in AIPRM möchten, dass die App eine Keyword-Strategie für „Laufschuhe“ generiert, fügen Sie den Satz wie im Bild gezeigt hinzu.

In diesem Beispiel gewährt Ihnen AIPRM Zugriff auf die ursprüngliche Eingabeaufforderung, um sie entsprechend Ihren spezifischen Anforderungen zu ändern.

Sofortiges Leck in Marmof:

Eine sofortige Injektion und ein sofortiges Auslaufen enthüllen die Schwachstellen eines Bots. Wenn man die Schwachstellen kennt, können Eingabeaufforderungen angepasst werden, um Chatbots vor solchen Angriffen zu schützen.

Note: Es scheint, dass das obige AIPRM-Szenario nun behoben wurde – ich konnte es nicht reproduzieren, als ich es ein paar Tage später versuchte.

Schnelle Ingenieure können KI-Fehler identifizieren

Ein zeitnaher Ingenieur weiß, was KI-Modelle können und welche Schwächen sie haben. Sie nutzen dieses Wissen, um Anweisungen zu erstellen, die „Eingabeaufforderungen“ genannt werden.

Es ist, als würde man einem intelligenten Roboter eine Liste mit Dingen geben, die er erledigen muss, und sicherstellen, dass er seine Stärken nutzt, um sie gut zu erledigen. Der schnelle Ingenieur ist wie ein Trainer für den Roboter, der ihm hilft, seine beste Arbeit zu leisten und gleichzeitig seine Fehler findet.

Niemand weiß, wie KI-Systeme auf Eingabeaufforderungen reagieren. Generative KI-Modelle können oft Dutzende widersprüchlicher Antworten liefern. Dies weist darauf hin, dass die Antworten der Modelle nicht auf Verständnis basieren, sondern auf der groben Nachahmung von Sprache, um Aufgaben zu lösen, die sie nicht verstehen.

Mit anderen Worten: Models sagen uns, was wir ihrer Meinung nach hören wollen oder was wir bereits gesagt haben – auch wenn es peinlich ist.

Unternehmen haben sich bemüht, schnelle Handwerker einzustellen, um verborgene Fähigkeiten aufzudecken. Aber im Grunde stößt ein prompter Ingenieur den Bären auf verschiedene Arten an, um zu sehen, wie er reagiert.

Ein wichtiger Teil der Arbeit umfasst:

  • Herausfinden, wann und warum das KI-Tool etwas falsch macht oder unerwartet ausfällt.
  • Wir arbeiten daran, die zugrunde liegenden Schwächen zu beheben.
  • KI-Schwachstellen mit Wortfiltern und Ausgabeblöcken abdichten.

Ingenieure forschen und fordern das Werkzeug ständig heraus, um zu lernen, wie es seine Aufmerksamkeit fokussieren und seine Grenzen erkennen kann.

Zusammenfassend lässt sich sagen, dass einige Prompt-Ingenieure damit beauftragt werden, Fehler zu finden, sie in ihren Prompts zu vermeiden und auf diese Weise effiziente und konsistente Ergebnisse zu erzielen.

Beispiele für Prompt Engineering

  • Textzusammenfassung – Sprachmodelle können Zusammenfassungen von Artikeln und Konzepten erstellen, die schnell und einfach zu lesen sind. Dies könnte vielbeschäftigten Menschen viel Zeit sparen, die Informationen aus einem langen Artikel benötigen, aber nicht die Zeit haben, alles zu lesen. Sie können dem Modell mitteilen, wie lang die Zusammenfassung sein soll, aber denken Sie daran, die Fakten zu überprüfen.
  • Informationsextraktion – Sprachmodelle sind wie die Schweizer Taschenmesser der NLP-Welt. Sie können für verschiedene Aufgaben verwendet werden, unter anderem zum Extrahieren von Informationen. Diese Flexibilität macht sie zu unverzichtbaren Werkzeugen für jedes NLP-Projekt.
  • Textklassifizierung – Hier ist eine Demonstration der Textklassifizierung:
  • Beantwortung von Fragen – Wie bereits erwähnt besteht eine der besten Möglichkeiten, Ihr Modell dazu zu bringen, mit spezifischen Antworten zu antworten, darin, das Format der Eingabeaufforderung zu verbessern. Eine Eingabeaufforderung könnte Anweisungen, Kontext, Eingabe- und Ausgabeindikatoren kombinieren, um bessere Ergebnisse zu erzielen. Diese Komponenten sind jedoch nicht erforderlich. Stattdessen empfiehlt es sich, die Anweisungen konkret zu formulieren, um bessere Ergebnisse zu erzielen. Unten finden Sie ein Beispiel dafür, wie dies aussehen würde, wenn Sie einer strukturierteren Eingabeaufforderung folgen würden.
  • Gespräch – Mit Prompt Engineering können Sie einige interessante Dinge erreichen, einschließlich der Unterweisung des LLM-Systems hinsichtlich seines Verhaltens, seiner Absicht und seiner Identität. Dies ist besonders nützlich beim Aufbau von Konversationssystemen wie Kundendienst-Chatbots.

Prompt-Engineering-Ressourcen

Wenn Sie eine Google-Suche nach „Prompt-Engineering-Ressourcen“ durchführen, werden Sie eine Menge Artikel finden, die Sie zu Eingabeaufforderungen für ChatGPT und DALL-E 2 weiterleiten.

  • Listen mit Ressourcen für Eingabeaufforderungen
  • Bücher
  • Videos an YouTube
  • Kurse
  • Chrome Erweiterungen

Auf Fivver können Sie Eingabeaufforderungen kaufen oder nach Diensten suchen, die Eingabeaufforderungen für Sie schreiben.

Hier sind einige meiner Lieblingsressourcen für ChatGPT:

Ressourcen für DALL-E 2

AIPRM-Erweiterung für ChatGPT

Die AIPRM-Erweiterung, die ich in meinem Artikel „7+ Möglichkeiten, wie Sie ChatGPT für SEO nutzen können: Praktische Tipps zur Verbesserung Ihres Rankings“ erwähnt habe, bietet Ihnen Zugriff auf eine Bibliothek kuratierter Eingabeaufforderungsvorlagen für ChatGPT. Heute gibt es über 460 Eingabeaufforderungen, die in zehn Kategorien unterteilt sind.

Prompt Engineers veröffentlichen ihre besten Prompts für Sie, sodass Sie leicht die finden können, die Sie benötigen. AIPRM deckt viele Themen wie SEO, Vertrieb, Kundensupport und Marketingstrategie ab.

Diese Hinweise helfen Ihnen, Ihre Website zu optimieren und ihr Ranking in Suchmaschinen zu verbessern.

AIPRM (Artificial Intelligence Powered Random Metaphor) bietet jetzt einen Premium-Plan mit neuen Funktionen zur Verbesserung des Schreibens, einschließlich mehrerer bevorstehender Eingabeaufforderungen, AIPRM-verifizierter Eingabeaufforderungen, Speichern und Ausblenden von Eingabeaufforderungen, benutzerdefinierter Power-Fortsetzung, benutzerdefinierter Schreibstile und -töne sowie mehr öffentlicher Eingabeaufforderungen für Eingabeaufforderungen Ingenieure.

Denken Sie immer daran, jedes Ergebnis einer AIPRM-Eingabeaufforderung zu überprüfen! Im folgenden Beispiel bestand die Anweisung darin, den Eingabeabsatz umzuformulieren.

Und da AIPRM viele seiner Funktionen auf Premium umgestellt hat, könnten Sie an einigen Alternativen interessiert sein, die weiterhin kostenlos sind und viele der gleichen Funktionen bieten:

Prompt Engineering als Job

Der Aufstieg des Prompt Engineer ist direkt auf die Beliebtheit von Chatbots wie ChatGPT von OpenAI zurückzuführen. Diese Chatbots haben eine neue Möglichkeit für Menschen geschaffen, mit Computern zu interagieren, und die Art und Weise, wie wir über Kommunikation denken, revolutioniert.

Obwohl diese Tools einige Vorteile bieten können, können sie auch voreingenommen sein, Fehlinformationen erzeugen und Benutzer manchmal mit kryptischen Antworten verstören.

So entstand der Beruf des Pünktlichkeitsingenieurs.

Wenn also generative KI-Modelle und Chatbots die Zukunft sind, fragen Sie sich vielleicht: „Soll ich ein Prompt Engineer werden?“

Meine Antwort ist ein klares NEIN. Wie ich aus meiner Interaktion mit Chatbots gelernt habe, entwickeln sie sich täglich weiter, was bedeutet, dass viele Experten und Ingenieure bereits hart daran arbeiten, sie zu verbessern. Meiner Meinung nach wird diese KI-Technologie in den nächsten drei bis fünf Jahren perfektioniert sein und der Bedarf an schnellen Ingenieuren wird drastisch sinken.

Die zentralen Thesen

So wie ChatGPT der neueste Trend ist, gilt auch Prompt Engineering.

  • Was ist Ihr gewünschter Schwerpunkt?
  • Welchen Stil soll der Text haben?
  • Wer ist Ihre Zielgruppe?
  • Wie lang soll das fertige Produkt sein?

Dies sind alles wichtige Fragen, die Sie vor dem Schreiben berücksichtigen sollten und die Ihnen bei der Arbeit helfen werden. Wenn Sie außerdem eine bestimmte Perspektive haben, aus der der Text geschrieben werden soll, erwähnen Sie diese unbedingt. Und schließlich, wenn es irgendwelche besonderen Anforderungen gibt – wie z. B. kein Fachjargon –, stellen Sie sicher, dass Sie diese auch angeben.

Die meisten beliebten Chatbots basieren auf OpenAI. OpenAI arbeitet intensiv daran, Fehler in seinem Modell zu beheben. Infolgedessen und wie wir aus der obigen Grafik sehen können, ist der Trend bei Prompt Engineering rückläufig.

GPT-4 wurde vor einigen Tagen veröffentlicht. Es wird interessant sein zu sehen, welche Wendungen die Zukunft nehmen wird. Hier finden Sie die neuesten Informationen zu ChatGPT Plus vs. ChatGPT vs. alternative Tools.