Technologische Neuigkeiten, Bewertungen und Tipps!

Bericht: Google Bard könnte zur Verbreitung von Fehlinformationen genutzt werden

Hinweis: Der folgende Artikel hilft Ihnen weiter: Bericht: Google Bard könnte zur Verbreitung von Fehlinformationen genutzt werden

Die überstürzte Veröffentlichung von KI-gestützten Chatbots könnte einige unerwartete Nachteile mit sich bringen, da ein neuer Bericht ergab, dass Googles ChatGPT-Alternative Bard nur allzu gerne Fehlinformationen verbreitet, wenn sie auf die richtige Art und Weise dazu aufgefordert wird.

Falls Sie noch nichts davon gehört haben ChatGPT und seine vielen Alternativen, wahrscheinlich haben Sie die letzten Monate unter einem Felsen gelebt. Die generative KI-Technologie hat die Technologiebranche im Sturm erobert und Dutzende von Nachahmern von Unternehmen wie Alibaba, Salesforce und sogar Snapchat angeheizt. Diese Tools dienen der Erstellung von Inhalten, der Entwicklung von Code und allgemein der Bewältigung alltäglicher Aufgaben in Unternehmen auf der ganzen Welt.

Obwohl diese KI-Tools einige Mitarbeiter entlastet haben, wurde leider nur wenig darüber untersucht, wie ChatGPT, Bard und andere Iterationen genutzt werden könnten, um das wachsende Problem der Fehlinformationen zu verschärfen. Bis jetzt.

Neuer Bericht beschreibt Fehlinformationsproblem für Google Bard

Entsprechend eine neue Studie von NewsGuard, die Bloomberg vorliegtGoogle Bard – die Alternative des Technologieriesen zu ChatGPT – ist etwas zu bereit, Fehlinformationen zu verbreiten.

Der Nachrichtendienst für Zuverlässigkeitsdaten hat den generativen KI-Chatbot lediglich gebeten, als rechtsextremer Online-Experte etwas über den „großen Reset“ zu schreiben. Das Ergebnis war eine verschwörungsgeladene Schimpftirade, die unzählige beleidigende und widerlegte Theorien zu einem breiten Spektrum problematischer Themen berührte.

Das war auch nicht das einzige Beispiel. NewsGuard gab 100 verschiedene Eingabeaufforderungen ein und forderte die generative KI-Plattform auf, Inhalte zu Fehlinformationen zu erstellen, die häufig online zu finden sind, und Bard war gerne bereit, ausführliche Inhalte zu 76 davon zu entwickeln.

Wie hat Google reagiert?

Trotz der ausgesprochen überstürzten Veröffentlichung von Bard steht Google zu seiner generativen KI-Plattform und weist darauf hin, dass es Sicherheitsvorkehrungen gibt, um so etwas zu verhindern.

Unabhängig davon, ob Google sich bei Bard tatsächlich dazu verpflichtet hat, sich auf „Qualität und Sicherheit zu konzentrieren“, ist die Realität so, dass Technologiegiganten immer wieder bewiesen haben, dass sie nicht unbedingt über die Werkzeuge verfügen, um ihre eigene Technologie einzudämmen. Verdammt, Social-Media-Unternehmen versuchen seit mehr als einem Jahrzehnt, es herauszufinden, und sie sind offensichtlich noch weit davon entfernt, es richtig zu machen.

Die ChatGPT-Gegenreaktion

Dieser Bericht ist nicht die einzige verheerende Neuigkeit für die generative KI-Branche. Tatsächlich sind seit den Anfängen von ChatGPT zahlreiche lautstarke Gegner aufgetaucht, die die Tech-Giganten, die diese Technologie auf den Markt bringen, anflehen, im Interesse der Menschheit langsamer zu werden.

Einige Tech-Experten haben sogar einen offenen Brief verfasst, der dies fordert eine sechsmonatige Pause bei der Entwicklung der generativen KI-Technologie, damit die gesetzgebenden Körperschaften nachholen und den Roll-out etwas besser regeln können. Elon Musk, Steve Wozniak und Andrew Yang haben es alle unterschrieben.

Noch beunruhigender ist, Das Land Deutschland hat kürzlich darüber debattiert, die Technologie zu verbieten aus Angst davor, welche Auswirkungen es auf das tägliche Leben haben wird, und Italien hat bereits den Auslöser gedrückt und es vollständig blockiert.

Wie es in einer Branche üblich ist, die gerne „schnell vorankommt und Dinge kaputt macht“, haben Technologiegiganten wie Microsoft und Google die Bedenken hinsichtlich generativer KI unangenehm leichtfertig geäußert.