Technologische Neuigkeiten, Bewertungen und Tipps!

Lernen Sie LMQL kennen: eine Open-Source-Programmiersprache und Plattform für die Interaktion mit großen Sprachmodellen (LLM).

Hinweis: Der folgende Artikel hilft Ihnen dabei: Lernen Sie LMQL kennen: eine Open-Source-Programmiersprache und Plattform für die Interaktion mit großen Sprachmodellen (LLM).

Große Sprachmodelle haben die Community der künstlichen Intelligenz im Sturm erobert. Ihr jüngster Einfluss hat dazu beigetragen, eine Vielzahl von Branchen wie Gesundheitswesen, Finanzen, Bildung, Unterhaltung usw. zu unterstützen. Die bekannten großen Sprachmodelle wie GPT, DALLE und BERT erfüllen außergewöhnliche Aufgaben und erleichtern das Leben. Während DALLE 2 Bilder erstellen kann, die auf eine einfache Textbeschreibung reagieren, kann GPT-3 einen hervorragenden Aufsatz schreiben, Codes vervollständigen, lange Textabsätze zusammenfassen, Fragen wie Menschen beantworten und Inhalte generieren, wenn nur eine kurze Eingabeaufforderung in natürlicher Sprache gegeben wird. Diese Modelle tragen dazu bei, dass künstliche Intelligenz und maschinelles Lernen schnell einen Paradigmenwechsel vollziehen.

Kürzlich hat ein Forscherteam LMQL eingeführt, eine Open-Source-Programmiersprache und Plattform für die Interaktion mit Sprachmodellen. LMQL, das für Language Model Query Language steht, verbessert die Fähigkeiten von Large Language Models (LLMs) durch die Kombination von Eingabeaufforderungen, Einschränkungen und Skripten. Als deklarative, SQL-ähnliche Sprache, die auf Python basiert, erweitert LMQL die statische Texteingabe um Kontrollfluss, einschränkungsgesteuerte Dekodierung und Toolerweiterung. Mit dieser Art von Skripten vereinfacht LMQL mehrteilige Eingabeaufforderungsabläufe mit einem sehr kleinen Codeteil.

Die Forscher haben LMQL verwendet, um LMP (Language Model Programming) zu ermöglichen, das die Sprachmodell-Eingabeaufforderung von reinen Text-Eingabeaufforderungen auf eine Kombination aus Text-Eingabeaufforderung und Skripterstellung verallgemeinert. LMQL beeinflusst die Einschränkungen und den Kontrollfluss einer LMP-Eingabeaufforderung, um ein effizientes Inferenzverfahren zu generieren. Diese superlogischen und übergeordneten Einschränkungen werden mithilfe einer Bewertungssemantik, die zum Zeitpunkt der Generierung streng durchgesetzt wird, in Tokenmasken übersetzt.

Das Team hat LMQL eingeführt, um die hohen Kosten für die erneute Abfrage und Validierung generierter Texte zu vermeiden. Dies kann dazu beitragen, dass LMQL beim ersten Versuch Text erzeugt, der der gewünschten Ausgabe näher kommt, ohne dass nachfolgende Iterationen erforderlich sind. Außerdem ermöglichen LMQL-Einschränkungen Benutzern, den Textgenerierungsprozess gemäß ihren gewünschten Spezifikationen zu leiten oder zu steuern, z. B. sicherzustellen, dass der generierte Text bestimmten grammatikalischen oder syntaktischen Regeln folgt oder dass bestimmte Wörter oder Phrasen vermieden werden.

Die Forscher haben erwähnt, dass LMQL eine breite Palette hochmoderner Eingabeaufforderungsmethoden wie interaktive Abläufe erfassen kann, die mit vorhandenen APIs nur schwer zu implementieren sind. Die Auswertung zeigt, dass LMQL die Genauigkeit zahlreicher nachgelagerter Aufgaben beibehält oder verbessert und gleichzeitig den Rechenaufwand oder die Kosten in kostenpflichtigen APIs erheblich reduziert, was zu Kosteneinsparungen von 13–85 % führt.

Mit LMQL können Benutzer ein breites Spektrum gängiger und fortgeschrittener Eingabeaufforderungstechniken einfach und prägnant ausdrücken. Es lässt sich in die Transformers von Hugging Face, die OpenAI-API und Langchain integrieren. Die Entwicklerressourcen dafür sind unter lmql.ai verfügbar, und eine browserbasierte Playground-IDE steht zum Experimentieren zur Verfügung.

Zusammenfassend lässt sich sagen, dass LMQL eine vielversprechende Entwicklung zu sein scheint, da die Evaluierung zeigt, dass LMQL ein leistungsstarkes Werkzeug ist, das die Effizienz und Genauigkeit der Sprachmodellprogrammierung verbessern kann. Dadurch kann es für Benutzer einfacher werden, mit weniger Ressourcen die gewünschten Ergebnisse zu erzielen.

Table of Contents