Technologische Neuigkeiten, Bewertungen und Tipps!

OpenAI hat Datenschutzbedenken hinsichtlich der Bilderkennung von ChatGPT

Hinweis: Der folgende Artikel hilft Ihnen weiter: OpenAI hat Datenschutzbedenken hinsichtlich der Bilderkennung von ChatGPT

ChatGPTs Die Fähigkeit, Bilder zu analysieren, ist so weit fortgeschritten, dass OpenAI zögert, sie der breiten Öffentlichkeit zugänglich zu machen, da Bedenken bestehen, dass das Tool zu einer Gesichtserkennungsmaschine werden könnte.

Der KI-gestützte Chatbot kann beschreiben, was in Bildern zu sehen ist, Fragen dazu beantworten und die Gesichter bestimmter Personen erkennen. Der ursprüngliche Zweck dieser Funktionalität bestand darin, dass ChatGPT in der Lage sein sollte, Probleme zu identifizieren und Lösungen vorzuschlagen, ähnlich wie die App Be My Eyes funktioniert.

Das Zögern von OpenAI bei der Veröffentlichung dieser Version ist die Folge Neuigkeiten von WormGPT – der KI-Chatbot, der auf Malware trainiert wurde, die darauf abzielt, Opfer zu erpressen. Denn wenn die Bilderkennungsfunktionen so gut funktionieren, ist es normalerweise nur eine Frage der Zeit, bis Betrüger Wege finden, sie in böswilliger Absicht zu nutzen.

Die visuelle Analyse von ChatGPT übertrifft die Leistungserwartungen

Bereits im März gab OpenAI bekannt GPT-4 – das neueste Softwaremodell, das seinen Chatbot antreibt. Während die Mehrheit der Benutzer nur auf die Texteingabefunktion zugreifen konnte, erhielten einige wenige frühzeitig Zugriff auf eine erweiterte Version.

Jonathan Mosen, ein blinder Rundfunksprecher, Anwalt und Lehrer, war einer derjenigen, die die Bildaufforderungsfunktion testeten. Er brachte zum Ausdruck, dass seine Fähigkeiten die Leistung anderer Bildanalysesoftware bei weitem übertroffen hätten und dass er nun in der Lage sei, „Bilder abzufragen“.

Anstelle von Standard-Alternativtexten für Bilder mit einfachen Beschreibungen wie „Frau mit blonden Haaren sieht glücklich aus“ konnte ChatGPT aussagekräftige Details wie „Frau in einem dunkelblauen Hemd, die ein Selfie im Ganzkörperspiegel macht“ bereitstellen.

Mosen konnte dem KI-Tool auch Folgefragen stellen, etwa welche Art von Schuhen die Frau trug und was sonst noch im Spiegelbild zu sehen war.

Zu ihrer großen Enttäuschung wurde jedoch kürzlich der Zugriff von Mosen und anderen Early Adopters auf diese Informationen widerrufen, wobei die Gesichter der Personen aus Datenschutzgründen unkenntlich gemacht wurden. Der Schritt spiegelt die umfassendere Sorge von OpenAI wider, etwas mit so großer Leistungsfähigkeit zu veröffentlichen.

Die visuelle Analysefähigkeit von ChatGPT ist das Produkt von a Zusammenarbeit mit dem dänischen Startup Be My Eyes (BME). Die BME-Technologie gibt es seit 2012 und wird von einer Gemeinschaft von über 250 Millionen Menschen genutzt, die blind oder sehbehindert sind.

Es funktioniert, indem es Benutzer mit Freiwilligen verbindet, um bei der Identifizierung von Produkten oder bei der Navigation durch Aufgaben zu helfen. Ziel der ChatGPT-Partnerschaft ist es, diesen menschlichen Freiwilligen durch einen virtuellen zu ersetzen.

OpenAI „klärt“ immer noch Sicherheitsbedenken

Der OpenAI-Politikforscher Sandhini Agarwal hat die Fortschritte des Chatbots verfolgt und klargestellt, dass er Persönlichkeiten des öffentlichen Lebens identifizieren kann, beispielsweise solche mit einer Wikipedia-Seite. Verweist jedoch auf die berüchtigten „Halluzinationen“ des Chatbots als potenzielles Hindernis.

„Wenn man ihm ein Bild von jemandem gibt, der an der Schwelle zur Berühmtheit steht, könnte es einen Namen halluzinieren. Wenn ich beispielsweise ein Bild eines berühmten Technologie-CEOs zeige, erhalte ich möglicherweise den Namen eines anderen Technologie-CEOs.“ – Sandhini Agarwal, Open-AI-Politikforscherin

OpenAI hat Bedenken geäußert, dass das Tool Dinge über die Gesichter von Menschen sagen könnte, die unsichere Einschätzungen ermöglichen, wie etwa ihr Geschlecht oder ihren emotionalen Zustand.

Diese Funktion gilt als die erste ihrer Art im Hinblick auf das, was von US-amerikanischen Technologieunternehmen allgemein als akzeptabel angesehen wird. Darüber hinaus könnte es in Regionen wie Europa, wo die Zustimmung der Bürger zur Verwendung ihrer biometrischen Daten erforderlich ist, zu rechtlichen Problemen führen.

Agarwal gab dies trotzdem zu Gesichtserkennungssoftware für Prominente Die Tools sind bereits vorhanden und bieten eine Opt-out-Funktion für diejenigen, die nicht erkannt werden möchten. Es heißt, dass OpenAI den gleichen Ansatz erwägt und gleichzeitig überlegt, wie andere Sicherheitsbedenken vor der Veröffentlichung des Tools berücksichtigt werden können.

Lesen Sie unseren ausführlichen Leitfaden zu ChatGPT-Alternativen

Der Aufstieg – und die Macht – der KI

Obwohl die Leistungsfähigkeit der Bilderkennungsfunktion erheblich ist, sind die Bedenken und der vorsichtige Ansatz von OpenAI gerechtfertigt? Microsoft – wer hat 10 Milliarden US-Dollar investiert in OpenAI und hat Zugriff auf das visuelle Analysetool – scheint das auf jeden Fall zu glauben.

Ein Sprecher der Tech-Riese geteilt dass es sich nicht um den „Austausch technischer Details“ handeln würde, sondern um „eine enge Zusammenarbeit mit unseren Partnern bei OpenAI, um unser gemeinsames Engagement für den sicheren und verantwortungsvollen Einsatz von KI-Technologien aufrechtzuerhalten“.

Der Informatiker und Doktorand an der Princeton University, Sayash Kappor, nutzte das Tool kürzlich, um ein Captcha zu entschlüsseln. Die visuelle Sicherheitsüberprüfung war angeblich nur für Menschen verständlich, wurde aber von einem Chatbot geknackt. Die einzige Rettung bestand darin, dass der Chatbot sich selbst davon abhielt, die verdeckten Captcha-Wörter weiterzugeben, indem er erklärte: „Captchas sollen verhindern, dass automatisierte Bots wie ich auf bestimmte Websites oder Dienste zugreifen.“

Unabhängig davon, ob man sich Bilder oder Texte anschaut, ist es jedoch keine narrensichere Strategie, sich auf Chatbots – oder KIs im Allgemeinen – zu verlassen, um selbst zu kontrollieren, was sie teilen dürfen und was nicht. Je fortgeschrittener die Technologie ist, desto mehr müssen ihre Entwickler Maßnahmen ergreifen, um sie zu regulieren.