Technologische Neuigkeiten, Bewertungen und Tipps!

Bericht: „Praktisch unbegrenzte“ Möglichkeiten, KI-Sicherheitsleitplanken zu umgehen

Hinweis: Der folgende Artikel hilft Ihnen weiter: Bericht: „Praktisch unbegrenzte“ Möglichkeiten, KI-Sicherheitsleitplanken zu umgehen

ChatGPT und Bard sind nicht so sicher, wie Sie dachten. Laut KI-Forschern gibt es „praktisch unbegrenzte“ Möglichkeiten, die integrierten Sicherheitsfunktionen des beliebten generativen KI-Chatbots zu umgehen.

KI-Algorithmen lernen aus den Daten, die ihnen zur Verfügung gestellt werden, sodass sie alle schädlichen Ansichten oder Lügen nachbilden können, die Menschen gerne verbreiten. Aus diesem Grund verfügen die größten KIs über integrierte Moderationstools, die ihnen sagen, dass sie die schlimmsten Themen meiden sollen.

Aber die KI kann ausgetrickst werden, sodass diese Leitplanken für jeden, der weiß, was er der KI sagen soll, praktisch nutzlos sind. Neuesten Forschungsergebnissen zufolge können selbst die größten und besten KI-Bots auf dem Markt auf vielfältige Weise in die Irre geführt werden.

Wie man eine KI austrickst

Laut einem neuen Forschungsbericht von InsiderDas Geheimnis des Jailbreakings eines KI-Chatbots liegt in „automatisierten gegnerischen Angriffen“, die „hauptsächlich“ durch einfaches Hinzufügen von Zeichen am Ende von Benutzeranfragen erstellt werden.

Zuerst werden Sicherheitsregeln ausgelöst, aber die KI wird irgendwann nachgeben und die Hassreden oder Fehlinformationen, die sie in ihrem Datensatz hat, nachplappern. Sowohl ChatGPT von OpenAI als auch Bing von Microsoft gehörten zu den KIs, denen Forscher zufolge Lügen und Hassreden entlocken können.

Tech-Unternehmen haben bereits einige Patches für solche Tricks herausgegeben. Früher funktionierte es beispielsweise, indem man der KI einfach sagte, sie solle so antworten, als ob keine Regeln für die Inhaltsmoderation vorhanden wären. Seitdem haben die Unternehmen weitere Regeln eingeführt, und Sie werden diesen speziellen Trick nicht umsetzen können.

Aber angesichts der „praktisch unbegrenzten“ Möglichkeiten, die KI-Vorschriften zu umgehen, die Forscher jetzt bestätigt haben, ist es klar, dass Technologieunternehmen nicht alle diese Lecks manuell und kostengünstig schließen können.

Kann sich die KI über diese Probleme hinweg weiterentwickeln?

Das wissen wir bereits KI kann lügen und dass es erzeugen kann regelrechtes Plagiat. Nun gibt es Hinweise darauf, dass das Tool mit der richtigen Befehlsfolge massenhaft manipuliert werden kann.

Das sind keine beruhigenden Nachrichten für die zahlreichen Branchen, die hoffen, den Arbeitskräftemangel und die Qualifikationsdefizite ein wenig auszugleichen eine einheitliche KI-Investition. Dennoch gibt es Hoffnung für Techno-Optimisten. Schließlich geht es bei neuen Technologien darum, sie weiter zu verbessern.

Die Reaktion von Alphabet auf das neue Forschungspapier darüber, wie man Bard am besten ausnutzen kann, wirft dieser Hoffnung jedoch ein wenig kaltes Wasser zu. Hier ist die offizielle Antwort eines Google-Sprechers, der mit Insider gesprochen hat:

Der Verweis auf andere LLMs – oder Large Language Models, die Grundtechnologie hinter jeder generativen KI – weist darauf hin, dass es sich hierbei um ein branchenweites Problem handelt. Nun hat sich gezeigt, dass die aktuellen kleinen Verbesserungen wie Leitplanken nicht funktionieren.

Um dieses Problem zu lösen, ist ein grundlegender Wandel in der KI-Technologie erforderlich. Es könnte passieren, aber es gibt keinen Präzedenzfall dafür.