Technologische Neuigkeiten, Bewertungen und Tipps!

Warum Vivaldi dem aktuellen KI-Trend nicht folgt?

Webbrowser integrieren den aktuellen KI-Trend mit Large Language Model (LLM)-Funktionalität. Doch damit sind grundlegende Probleme verbunden. Wir gehen hier auf sie ein.

ChatGPT ist vor einem Jahr und ein paar Monaten in die Öffentlichkeit gelangt. Seitdem gibt es in vielen Bereichen einen zunehmenden Trend, es einzusetzen, um einige der Dinge zu ersetzen, die Menschen tun, oder um Menschen auf neue Weise dabei zu helfen, Antworten auf ihre Fragen zu finden.

Auch die Welt der Webbrowser ist von diesem Trend nicht verschont geblieben. mehrere Beispiele für Web Browser Integration der LLM-Funktionalität (Large Language Model) auf die eine oder andere Weise.

Doch obwohl sie dies im Namen der Zukunftsgestaltung tun, scheint keiner von ihnen den eklatanten Fehler dieser Funktionen zu berücksichtigen: Die LLMs selbst sind schlicht nicht als Gesprächspartner oder als Zusammenfassungsmaschinen geeignet und können lediglich bei der Generierung von Sprache helfen, was ein erhebliches Risiko von Plagiaten darstellt.

Um zu verstehen, warum es sich hierbei um grundsätzliche Probleme handelt und nicht um Probleme, die irgendwann gelöst werden, müssen wir uns mit der Natur der LLMs befassen.

Wir möchten hier nicht in eine sehr langatmige Erklärung der Feinheiten von LLMs einsteigen. Stattdessen begnügen wir uns mit einer kürzeren Erklärung. Dabei werden vielleicht einige Vorbehalte ausgelassen, aber alles, was hier gesagt wird, gilt für die großen, beliebten generischen LLMs, die es gibt.

Viele Experten auf diesem Gebiet haben bereits hat eine ausgezeichnete Arbeit davon. Hier ist eine interessante Lektüre: „Sie sind kein Papagei. Und ein Chatbot ist kein Mensch“.

Was sind LLMs?

LL.M.-Studiengänge sind nur ein Modell dessen, wie eine geschriebene Sprache aussieht. Das ist eine mathematische Beschreibung davon, wie sie aussieht. Es wird durch die Untersuchung einer großen Vielfalt von Quellen erstellt und konzentriert sich darauf zu beschreiben, welches Wort am wahrscheinlichsten auf eine große Menge anderer Wörter folgt. Dem System wird ein wenig Zufälligkeit hinzugefügt, um es interessanter zu machen, und dann wird die Ausgabe durch ein zweites Modell gefiltert, das bestimmt, wie „schön“ diese Ausgabe klingt. In mehreren Fällen wurde dieses Modell der zweiten Stufe erstellt, indem viele (unterbezahlte) Leute sich ansahen, was aus der ersten Stufe herauskam, und entschieden, ob es ihnen gefiel oder nicht und ob es plausibel klang.

Dies hat zwei grundlegende Probleme:

  • Urheberrechts- und Datenschutzverletzungen

    Um eine gute Vorstellung davon zu haben, welches Wort wahrscheinlich auf eine Reihe von Wörtern folgt, ist es notwendig, sich einen Text anzusehen. Je mehr Text, desto besser, da jedes Stück Text es ermöglicht, das Modell so zu optimieren, dass es eine genauere Darstellung einer Sprache ist. Außerdem muss ein Großteil des eingegebenen Textes relativ neu sein, um die aktuelle Verwendung der Sprache widerzuspiegeln.

    Das bedeutet, dass ein enormer Anreiz besteht, Text aus allen verfügbaren aktuellen Quellen zu verwenden, von sozialen Medien bis hin zu Artikeln und Büchern. Leider bedeutet die Einbettung solcher Texte in das Modell, dass es dazu führen kann, dass es denselben Text wortwörtlich ausgibt. Dies geschieht, wenn es für eine bestimmte Eingabesequenz keine bessere Wahl gibt, als diesen Originaltext wiederzugeben. Infolgedessen wiederholen diese Modelle in einigen Fällen einfach urheberrechtlich geschütztes Material, was zu Plagiaten führt.

    Ebenso können die Massen an Texten aus sozialen Medien und anderen von Benutzern bereitgestellten Quellen durchaus sensible, private Informationen enthalten, die ebenfalls weitergegeben werden können. Einige clevere Leute haben Wege gefunden, diese Art von Verhalten auszulösen, und es ist unwahrscheinlich, dass man sich vollständig davor schützen kann. Da wir uns des Risikos bewusst sind, das die Offenlegung privater Informationen mit sich bringt, waren wir nie begeistert von der Idee, dass diese möglicherweise in diese Modelle einfließen könnten.

  • Plausibel klingende Lügen

    Da die Texte, aus denen ein LLM besteht, größtenteils aus dem Internet stammen, ist vieles davon kompletter Müll. Das reicht von schlecht geschriebener Prosa über sachliche Fehler bis hin zu tatsächlich beleidigenden Inhalten. Frühe Experimente mit der Technologie führten zu Chatbots, die schnell selbst anfingen, beleidigende Sprache auszuspucken, was bewies, dass sie für diesen Zweck ungeeignet sind. Aus diesem Grund werden moderne LLMs durch eine zweite Stufe moderiert, die ihre Ausgabe filtert.

    Leider wird diese zweite Stufe, wie oben beschrieben, von Leuten erstellt, die die Ergebnisse der ersten Stufe bewerten. Damit dies nützlich ist, müssen sie riesige Mengen an Ergebnissen untersuchen. Selbst die kenntnisreichsten Leute der Welt könnten nicht hoffen, alles auf Richtigkeit zu überprüfen, und selbst wenn sie es könnten, können sie nicht jedes Ergebnis kennen, das jemals produziert wird. Für diese Leute hilft der Filter lediglich dabei, den Ton anzugeben. All dies führt dazu, dass die Art von Ergebnissen bevorzugt wird, die die Leute gerne sehen, nämlich selbstbewusst klingende Texte, unabhängig von ihrer Richtigkeit. Sie werden größtenteils bei allgemein bekannten Fakten richtig liegen, aber ansonsten ist es ein Glücksspiel. Meistens werden sie einfach eine Lüge auf Politikerniveau erzählen.

Das Richtige tun

Wie wir also gesehen haben, sind LLMs im Wesentlichen selbstbewusst klingende Lügenmaschinen mit einer Vorliebe dafür, gelegentlich private Daten preiszugeben oder bestehende Arbeiten zu plagiieren. Dabei verbrauchen sie auch enorme Mengen an Energie und nutzen gerne alle GPUs, die man ihnen vorsetzt – ein Problem, das wir bereits im Bereich der Kryptowährungen gesehen haben.

Daher erscheint es mir nicht richtig, eine solche Lösung in Vivaldi zu integrieren. Es sind bereits genügend Fehlinformationen im Umlauf, sodass wir riskieren, noch mehr hinzuzufügen. Wir werden kein LLM verwenden, um einen Chatbot, eine Zusammenfassungslösung oder eine Vorschlagsmaschine hinzuzufügen, die Formulare für Sie ausfüllt, bis strengere Möglichkeiten für diese Dinge verfügbar sind.

Dennoch geht es bei Vivaldi um Auswahlmöglichkeiten und wir werden es den Menschen auch weiterhin ermöglichen, jeden gewünschten LLM online zu nutzen.

Trotz alledem sind wir der Meinung, dass das Feld des maschinellen Lernens im Allgemeinen weiterhin spannend bleibt und zu tatsächlich nützlichen Funktionen führen kann. Wir hoffen, dass es uns in Zukunft ermöglicht, unseren Benutzern gute datenschutzfreundliche Funktionen bereitzustellen, wobei wir uns auf die Verbesserung der Auffindbarkeit und Zugänglichkeit konzentrieren.

Wir werden weiterhin bestrebt sein, ein funktionsreiches und ethisches Browsing-Erlebnis zu bieten.

Your Header Sidebar area is currently empty. Hurry up and add some widgets.