Technologische Neuigkeiten, Bewertungen und Tipps!

Was ist ChatGPT-4 – alle neuen Funktionen erklärt

Der folgende Artikel hilft Ihnen dabei: Was ist ChatGPT-4 – alle neuen Funktionen erklärt

ChatGPT ist bereits ein beeindruckendes Tool, wenn Sie wissen, wie man es verwendet, aber mit der Einführung von GPT-4 wird es bald ein bedeutendes Upgrade erhalten.

Derzeit läuft die kostenlose Vorschau von ChatGPT, die die meisten Leute verwenden, auf dem GPT-3.5-Modell von OpenAI. Mit diesem Modell erfreute sich der Chatbot großer Beliebtheit, und obwohl es einige bemerkenswerte Mängel aufwies, musste jeder Nachfolger einiges nachholen.

Und dieser Nachfolger ist jetzt da, obwohl OpenAI nicht nur die Schleusen öffnen wird. OpenAI hat GPT-4 auf seiner Website angekündigt und erklärt, dass GPT-4 zunächst für ChatGPT Plus-Abonnenten und Entwickler verfügbar sein wird, die die ChatGPT-API verwenden.

Hier finden Sie alles, was wir bisher über GPT-4 und alle angekündigten neuen Funktionen wissen.

Was ist GPT-4?

GPT steht für Generative Pre-trained Transformer. Dieses neuronale Netzwerk nutzt maschinelles Lernen, um Daten zu interpretieren und Antworten zu generieren. Es ist vor allem das Sprachmodell, das hinter dem beliebten Chatbot ChatGPT steht. GPT-4 ist die neueste Version dieses Modells und ein Upgrade des GPT-3.5-Modells, das die kostenlose Version von ChatGPT unterstützt.

Was ist an GPT-4 anders?

GPT-3 enthielt über 175 Milliarden Parameter, die die KI bei der Reaktion auf eine Eingabeaufforderung berücksichtigen musste, und antwortet immer noch in Sekundenschnelle. Es wird allgemein erwartet, dass GPT-4 diese Zahl erhöht, was zu einer genaueren und gezielteren Reaktion führt. Tatsächlich hat OpenAI bestätigt, dass GPT-4 die Eingabe und Ausgabe von bis zu 25.000 Wörtern Text verarbeiten kann, mehr als das Achtfache der 3.000 Wörter, die ChatGPT mit GPT-3.5 verarbeiten konnte.

Der andere große Unterschied besteht darin, dass GPT-4 dem GPT-Modell multimodale Funktionalität hinzufügt. Dadurch kann GPT-4 nicht nur Texteingaben, sondern auch Bilder verarbeiten, kann jedoch derzeit noch nur in Textform antworten. Es ist diese Funktionalität, von der Microsoft kürzlich auf einer KI-Veranstaltung sagte, dass sie es GPT-4 schließlich ermöglichen könnte, Videoeingaben im KI-Chatbot-Modell zu verarbeiten.

Diese Upgrades sind besonders relevant für das neue Bing mit ChatGPT, von dem Microsoft bestätigt hat, dass es heimlich GPT-4 verwendet. Angesichts der Tatsache, dass Suchmaschinen so genau wie möglich sein und Ergebnisse in mehreren Formaten liefern müssen, darunter Text, Bilder, Videos und mehr, machen diese Upgrades einen gewaltigen Unterschied.

Microsoft hat seine Ambitionen deutlich gemacht, eine multimodale KI zu schaffen. Neben GPT-4, das auf Microsoft Azure-Supercomputern trainiert wurde, hat Microsoft auch daran gearbeitet Visueller ChatGPT Tool, mit dem Benutzer Bilder in ChatGPT hochladen, bearbeiten und generieren können.

Auch Microsoft benötigt diese multimodale Funktionalität, um mit der Konkurrenz mithalten zu können. Sowohl Meta als auch die KI-Systeme von Google verfügen bereits über diese Funktion (obwohl sie nicht für die breite Öffentlichkeit verfügbar ist).

Gerüchten zufolge soll die neueste Version des Modells auch über verbesserte Konversationsfähigkeiten verfügen und menschlicher klingen. Einige haben nach einem kryptischen Tweet von OpenAI-CEO und Mitbegründer Sam Altman sogar angedeutet, dass es die erste KI sein wird, die den Turing-Test besteht.

Obwohl OpenAI dies nicht ausdrücklich bestätigt hat, gab es an, dass GPT-4 aufgrund seiner multimodalen Fähigkeiten im 90. Perzentil der Uniform Bar Exam und im 99. Perzentil der Biologieolympiade abschloss. Beides sind bedeutende Verbesserungen gegenüber ChatGPT, das bei der Anwaltsprüfung im 10. Perzentil und bei der Biologieolympiade im 31. Perzentil landete.

Was kann GPT-4?

Während eines kürzlichen Entwickler-Livestreams für GPT-4 stellte OpenAI-Präsident und Mitbegründer Greg Brockman einige der neuen Funktionen des aktualisierten Sprachmodells vor, darunter multimodale Funktionen, die Kontext für Bilder und sogar die Erstellung von Websites bereitstellen.

In diesem Teil der Demo hat Brockman ein Bild auf Discord hochgeladen und der GPT-4-Bot konnte eine genaue Beschreibung davon liefern. Allerdings bat er den Chatbot auch, zu erklären, warum das Bild eines Eichhörnchens, das eine Kamera hält, lustig sei, worauf er antwortete: „Es ist eine humorvolle Situation, weil Eichhörnchen normalerweise Nüsse essen und wir nicht erwarten, dass sie eine Kamera benutzen oder sich wie Menschen verhalten.“ “.

Als ob das genug wäre, war Brockmans nächste Demo noch beeindruckender. Darin machte er ein Foto von handgeschriebenem Code in einem Notizbuch, lud es auf GPT-4 hoch und ChatGPT konnte dann aus den Inhalten des Bildes eine einfache Website erstellen.

Sobald GPT-4 von Entwicklern in der realen Welt getestet wird, werden wir wahrscheinlich erleben, wie die neueste Version des Sprachmodells an ihre Grenzen stößt und für noch kreativere Aufgaben verwendet wird.

So greifen Sie auf GPT-4 zu

Derzeit gibt es mehrere Möglichkeiten, auf das GPT-4-Modell zuzugreifen, diese sind jedoch nicht jedermanns Sache.

Wenn Sie das neue Bing mit ChatGPT verwenden, herzlichen Glückwunsch! Sie haben die ganze Zeit heimlich GPT-4 verwendet. Wenn Sie das neue Bing mit seinen KI-Funktionen noch nicht verwendet haben, schauen Sie sich unbedingt unseren Leitfaden an, um auf die Warteliste zu gelangen und frühzeitig Zugriff zu erhalten. Es scheint auch, dass eine Vielzahl von Unternehmen, von Duolingo bis zur isländischen Regierung, die GPT-4-API verwendet haben, um ihre bestehenden Produkte zu erweitern. Möglicherweise ist es auch der Grundstein für Microsoft 365 Copilot, obwohl Microsoft dies noch nicht bestätigt hat.

Abgesehen vom neuen Bing hat OpenAI angekündigt, GPT ChatGPT Plus-Benutzern und Entwicklern, die die API verwenden, zur Verfügung zu stellen. Wenn Sie also GPT-4 chatten, müssen Sie dafür bezahlen – vorerst.

Die besten Logitech MX Master-Angebote von heute