Technologische Neuigkeiten, Bewertungen und Tipps!

ChatGPT könnte eine neue Denkweise haben, vermuten Forscher

Hinweis: Der folgende Artikel hilft Ihnen weiter: ChatGPT könnte eine neue Denkweise haben, vermuten Forscher

Eine kürzlich veröffentlichte Studie hat herausgefunden, dass GPT-3 das große Sprachmodell ist, das dies unterstützt KI-Chatbot ChatGPT, argumentiert ebenso wie Studenten, wenn es um die Beantwortung von „Argumentationsproblemen“ geht. Die Tatsache, dass die GPT-Sprachmodelle nicht auf vergleichbare Weise wie Menschen lernen, veranlasste die Forscher zu der Frage, ob es sich bei dieser Art des Denkens um eine „ganz neue“ Form der Intelligenz handelt.

Um jedoch zu bestätigen, ob die Software tatsächlich „menschliches Denken nachahmt“ oder „eine neue Art von kognitivem Prozess“ verwendet, wäre Backstage-Zugriff auf die Systeme von OpenAI erforderlich, was in absehbarer Zeit wahrscheinlich nicht der Fall sein wird.

Wenn ChatGPT tatsächlich auf neuartige Weise argumentiert, könnte dies eine Reihe interessanter Probleme mit sich bringen KI-EthikForschung und Entwicklung.

Die Logik- und Denkfähigkeiten von GPT-3 übertreffen die Erwartungen

Studie der UCLA, erschienen in Natur menschliches Verhalten Diese Woche stellte fest, dass „GPT-3 eine überraschend starke Fähigkeit zur Induktion abstrakter Muster zeigte“, wenn es um allgemeine Intelligenz- und SAT-Testfragen ging.

Diese Kapazität ergab, dass GPT-3 den „menschlichen Fähigkeiten in den meisten Umgebungen“ entsprach oder diese übertraf, während „vorläufige Tests von GPT-4 eine sogar bessere Leistung zeigten“.

Die Ergebnisse, sagen die Autoren Taylor Webb, Keith J Holyoak und Hongjing Lu, „deuten darauf hin, dass große Sprachmodelle wie GPT-3 die Fähigkeit erlangt haben, Zero-Shot-Lösungen für ein breites Spektrum von Analogieproblemen zu finden.“

Zero-Shot-Learning ist eine Methode des maschinellen Lernens, um LLMs und anderen KI-Maschinen beizubringen, Dinge zu identifizieren, zu erkennen und zu klassifizieren, denen sie noch nie zuvor begegnet sind.

Der Co-Autor der Studie, Keith J. Holyoak, fügt hinzu, dass ChatGPT zwar in gewisser Hinsicht wie ein Mensch zu denken scheint: „Die Leute haben nicht gelernt, indem sie das gesamte Internet genutzt haben, daher ist die Trainingsmethode völlig anders.“

Er sagte, sie hoffen herauszufinden, ob die kognitiven Prozesse des Sprachmodells „brandneu“ und eine wirklich „echte künstliche Intelligenz“ seien.

GPT-3-Testergebnisse

GPT-4 schnitt besonders gut bei Raven’s Progressive Matrices ab, einem Bildvorhersagetest. Bei diesem Test erreichte es 80 %, während der durchschnittliche Mensch weniger als 60 % erreicht.

Wenn das Sprachmodell tatsächlich Fehler machte, verliefen die Fehler interessanterweise oft auf ähnliche Weise und in ähnlichen Phasen wie bei den empfindungsfähigen Testgegenstücken.

Obwohl GPT-3 beim analytischen Denken eine lobenswerte Leistung erbrachte, gab es andere Fragen, mit denen es zu kämpfen hatte, einschließlich Fragen, die ein gewisses Maß an Verständnis des physischen Raums erforderten.

GPT-3 schnitt auch bei Testfragen, die darauf abzielten, herauszufinden, ob die Probanden Analogien mit ähnlicher Bedeutung vermitteln konnten, bei den Schülern nicht ganz so gut ab. Bemerkenswert ist jedoch, dass GPT-4, der Nachfolger von GPT-3 und GPT-3.5, bei diesem Test besser abgeschnitten hat.

LLMs zeigen weiterhin vielversprechende Tests

Dies ist nicht das erste Beispiel dafür, dass ein Sprachmodell auf die Probe gestellt wird und Ergebnisse liefert, die mit denen menschlicher Probanden vergleichbar sind.

Beispielsweise erreichte GPT-3.5 – das Modell, das derzeit der kostenlosen Version von ChatGPT zugrunde liegt – bei einer simulierten Anwaltsprüfung an einer juristischen Fakultät etwa die unteren 10 % der Testteilnehmer. GPT-4das ChatGPT Plus-Kunden zur Verfügung steht, punktete unter den besten 10 %.

Bards Testergebnisse sind weniger beeindruckend. Fortune hat einige SAT-Mathefragen aus dem Internet herausgesucht und sie Bard gestellt, aber der Chatbot hat zwischen 50 % und 75 % falsch beantwortet. Allerdings schnitt es bei Lesetests besser ab – zumindest genug, um sich einen Platz an mehreren US-Universitäten zu sichern.

Diese Tests wurden jedoch durchgeführt, bevor Bard dazu überging, ein leistungsfähigeres Sprachmodell zu verwenden. namens PaLM 2das besonders gut funktioniert, wenn es mit mathematischen und codierungsbasierten Fragen beantwortet wird.

Anthropics jüngster Beitrag zum generativen KI-Bereich, Claude 2erzielt Berichten zufolge in beiden Fällen höhere Ergebnisse als GPT-4 Anwaltsprüfungen und GRE-Schreiben Einschätzungen.

Es bleiben noch Fragen offen

Die Frage bleibt jedoch bestehen – und kann nicht beantwortet werden, ohne dass OpenAI Forschungsteams tatsächlich einen ChatGPT Access All Areas-Pass gewährt –, wie diese Argumentationsprozesse in den Sprachmodellen ablaufen, die sie unterstützen.

Wenn ChatGPT einen kognitiven Prozess zum Denken entwickelt hat, der erheblich von bekannten menschlichen Prozessen abweicht, könnten die Auswirkungen weitreichend sein und ein ganzes Netz ethischer Fragen im Zusammenhang mit der Empfindungsfähigkeit und der Bewertung von KI-Systemen aufwerfen.