Technologische Neuigkeiten, Bewertungen und Tipps!

Apple Intelligence: Auf dem Weg zu einer transparenten KI, die personenbezogene Daten respektiert?

In ein kürzlich veröffentlichtes technisches Dokumententhüllt das Apple-Unternehmen hinter den Kulissen seiner neuen Apple Intelligence-Reihe, einer Reihe generativer KI-Funktionen, die für seine Flaggschiff-Betriebssysteme entwickelt wurden. Der Technologieriese wird wegen der Ethik seiner Trainingsmethoden kritisiert bekräftigt nachdrücklich sein Engagement für den Schutz der personenbezogenen Daten seiner Nutzer.

Modelltraining: öffentliche und lizenzierte Daten

Um Zweifel auszuräumen, stellt das Unternehmen aus Cupertino sicher, dass seine Modelle mit künstlicher Intelligenz funktionieren wurden ausschließlich mit öffentlichen Daten gefüttert und entsprechend autorisiertwobei jegliche private Informationen gewissenhaft ausgeschlossen werden.

In dem Dokument heißt es ausdrücklich: „ Der vorab trainierte Datensatz besteht aus Daten, die wir von Herausgebern lizenziert haben, öffentlich verfügbaren oder Open-Source-Datensätzen und öffentlich verfügbaren Informationen, die von unserem Crawler Applebot gesammelt wurden . Apple zeigt seinen Kritikern daher seine weiße Pfote und möchte deutlich hervorheben seine Transparenz und ethische Berücksichtigung in seinem Ansatz zur KI.

Allerdings liegt ein Schatten über dieser Aussage. In der Tat, Beweisnachrichten gab im Juli bekannt, dass Apple hatte aus einem Korpus namens The Pile gezogenunter Einbeziehung von Untertiteln aus unzähligen YouTube-Videos, um Modelle für die lokale Verarbeitung zu formen.

Viele Ersteller von YouTube-Inhalten, deren Untertitel auf diese Weise ausgenutzt wurden, darüber weder informiert noch eingewilligt worden. Angesichts dieser Kontroverse beeilte sich Apple klarzustellen, dass diese umstrittenen Modelle nicht in die KI-Funktionalitäten seiner vermarkteten Produkte integriert würden.

Lukrative Angebote für Qualitätsdaten

In seinem Streben nach Exzellenz in der künstlichen Intelligenz Apple hat nicht an Ressourcen gespart. Um seine Apple Foundation Models (AFM) zu unterstützen, hat das Unternehmen ein Netzwerk strategischer Partnerschaften aufgebaut.

Nach den Enthüllungen von New York Timesmehrjährige Verträge mit erheblichem Umfang – nicht weniger als 50 Millionen Dollar – wurden Ende 2023 mit Verlagsriesen wie NBC, Condé Nast und IAC abgeschlossen und gewährten Apple privilegierten Zugriff auf deren Schätze an journalistischen Archiven.

Gleichzeitig wurden die AFMs auch mit Open-Source-Code gefüllt, insbesondere aus den umfangreichen Verzeichnissen von GitHub. Daher haben so unterschiedliche Sprachen wie Swift, Python und C++ beim Training dieser Modelle geholfen.

Allerdings löst dieser Ansatz in der Entwickler-Community einige Stirnrunzeln aus. Einige argumentieren, dass die Verwendung von Open-Source-Code für KI-Schulungszwecke ohne ausdrückliche Genehmigung weiterhin ein heikles Thema sei. Tatsächlich alle frei zugänglichen Codebasen sind nicht unbedingt mit Lizenzen versehen, die eine solche Nutzung erlauben.

Angesichts dieser berechtigten Fragen möchte Apple beruhigen. Das Unternehmen gibt an, gewissenhaft „ gefilterte Lizenzen , Beibehaltung nur von Benchmarks mit minimalen Einschränkungenbeispielsweise solche, die durch die MIT-, ISC- oder Apache-Lizenzen geregelt sind. Eine Vorsichtsmaßnahme, von der sie sicherlich hofft, werde es wissen Bedenken lindern.

Apple gibt an, private Nutzerdaten bei der Entwicklung seiner KI-Modelle auszuschließen. Sie nutzte kürzlich YouTube-Untertitel ohne Zustimmung, um ihre Models zu trainieren, gibt jedoch an, dass diese nicht monetarisiert werden. Das Unternehmen hat 50-Millionen-Dollar-Verträge mit Verlagen unterzeichnet und außerdem lizenzierten Open-Source-Code zum Trainieren seiner Modelle verwendet.

Your Header Sidebar area is currently empty. Hurry up and add some widgets.