Elon Musks Open-Source-Pläne könnten bedeuten, dass Twitter für politische Zwecke manipuliert werden kann. Lesen Sie die Expertenmeinung von Vasundhara Majithia, Studentin an der University of California, Berkeley, und Rajtilak Indrajit, Student am Georgia Tech
Am 25. April 2022 kaufte Elon Musk schließlich Twitter für einen satten 44 Milliarden US-Dollar Deal unter großem Getöse und Spekulationen über die Zukunft des Unternehmens. Es wurde viel darüber gesagt, was Elons „absolute Redefreiheit“ -Version von Twitter könnte sehen wie und was es bedeutet für Demokratie und Gesellschaft. In diesem Artikel möchte ich eine weitere von Elon vorgeschlagene Änderung diskutieren – den Twitter-Algorithmus „Open Source“ zu machen.
Hintergrund
Twitter verwendet einen Algorithmus, um kuratieren Ihre Timeline mit Tweets (und Werbung) basierend auf Themen, für die Sie Interesse gezeigt haben oder die Sie verfolgen. Elon hat sagte dass dieser Algorithmus öffentlich zugänglich sein sollte auf GitHubeine bei Programmierern beliebte Code-Hosting-Plattform, die jeder lesen und kopieren kann. Einen Tag nach der Ankündigung der Übernahme durch Elon fügte Twitter ein GitHub hinzu Endlager „den Algorithmus“ genannt und ihn dann unerklärlicherweise gelöscht.
Die Veröffentlichung des Twitter-Algorithmus ist seit langem die Forderung der Konservativen in den Vereinigten Staaten, die behaupten, dass „Big Tech“Schweigen sie und begrenzt ihre Reichweite mit voreingenommenen Algorithmen, obwohl Twitters eigeneForschung zeigt, dass sein Algorithmus konservative Ansichten tatsächlich verstärkt.
Was Experten zu sagen haben
Experten haben bereits wies darauf hin dass die Veröffentlichung der Algorithmen unser Verständnis der Funktionsweise von Twitter nicht verbessern wird. Außer KI-/ML-Experten kann niemand komplexe Algorithmen überhaupt verstehen. Es ist ziemlich schwierig zu verstehen, wie Inhaltsempfehlungsalgorithmen funktionieren, wenn man nur den Code liest und die Daten fehlen, mit denen solche Algorithmen trainiert werden.
Während die Freigabe des Quellcodes die Transparenz erhöht, stellt das Knacken des Algorithmus ein weitaus dringlicheres Problem dar: Es kann die Plattform anfällig machen für gespielt werdenDie meisten komplexen Algorithmen funktionieren als undurchsichtige „Black Boxes“ und selbst Programmierer, die sie entwickeln, können oft nicht erklären warum der Algorithmus bestimmte Entscheidungen trifft. In diesem Szenario bedeutet Open Source, dass der Algorithmus von jedem eingesehen und überprüft werden kann. Der Entscheidungsprozess, die Ziele und Regeln, die in den Modell öffentlich bekannt werden. Durch sorgfältiges Studium des Algorithmus könnte ein Experte Rückentwicklung die Timeline-Logik und generiert Inhalte, die garantiert höher eingestuft werden und die meisten Aufrufe erhalten. Mit anderen Worten: Akteure in böser Absicht könnten manipulieren, was auf Twitter viral geht.
Eine solche Manipulation auf einer Plattform von der schieren Größe und Reichweite von Twitter würde böswilligen Akteuren eine beispiellose Reichweite in der Öffentlichkeit verschaffen und es ihnen ermöglichen, Fake News und Propaganda effektiver zu verbreiten. In der heutigen AufmerksamkeitsökonomieAufmerksamkeit ist alles. Zielgerichtete Desinformationskampagnen können die öffentliche Meinung leicht beeinflussen. Die „Desinformation gegen Bezahlung“ Schattenindustrie boomt bereits. Die Nutzung von Social-Media-Plattformen korreliert mit ihrer politischen Polarisierung. Politiker sind bereits missbrauchen Social-Media-Plattformen, um Wahlen zu beeinflussen. Die Open-Source-Version der Plattform könnte ihnen die Arbeit erleichtern.
Was haben die Behörden gesagt?
Die neu erlassene Gesetz über digitale Dienste in der Europäischen Union (EU) ist eine Inhaltsmoderation für „gefährliche Fehlinformationen“ vorgeschrieben, obwohl ein solches Gesetz wahrscheinlich im Widerspruch zu freie MeinungsäußerungMenschenrechte in den USA. Die EU-Gesetzgeber haben bereits gewarnt Elon sagte, dass Twitter seine Regeln befolgen muss oder mit schweren Strafen rechnen muss. Eine effektive Inhaltsmoderation könnte eine Lösung sein, um die Verbreitung gefährlicher Falschinformationen auf Twitter zu verhindern. Elon hat jedoch seine Haltung Klare Aussage zur Mäßigung.
Endgültiges Urteil
Elons zwei große Visionen für Twitter könnten „Absolutismus der freien Meinungsäußerung“ und „Open-Source-Algorithmen“ zusammenwirken, um eine Cambridge Analytica wie ein Chaos für die Demokratie. Da diese beiden Visionen im Grunde genommen im Widerspruch zueinander zu stehen scheinen, wäre es interessant zu sehen, wie Twitter mit den Kompromissen umgeht. Twitter könnte auf solche Manipulationen reagieren, indem es Verschleierung seinen Algorithmus, d. h. Teile davon zu verbergen. Alternativ könnten sie Ensemble-Modelle, eine Familie von Algorithmen, die gemeinsam darüber abstimmen, wie Ihre Timeline aussieht. So oder so wird der Algorithmus komplexer und undurchsichtiger, was die „Open Source“-Vision von Twitter zunichte macht. Alternativ könnte Twitter seine Plattform streng überwachen, um solche Desinformation und Manipulation zu zensieren, was seine Versprechen der „freien Meinungsäußerung“ zunichte macht. So oder so werden die Entscheidungen, die Twitter in den nächsten Monaten trifft, bestimmen, wie wir über Social-Media-Plattformen und ihre Rechenschaftspflicht gegenüber der Öffentlichkeit denken.
Haftungsausschluss: Alle hier geäußerten Ansichten sind die des Autors und spiegeln nicht die Überzeugungen seiner Organisationen wider.
Autoren
Vasundhara Majithia
Vasundhara ist LLM-Studentin an der University of California, Berkeley. Sie war als IP-Anwältin in Indien tätig, mit besonderem Schwerpunkt auf Marken, Urheberrechten und Plattformregulierungsrecht und -politik. Derzeit ist sie Teil des Teams bei KIWahrheit ein Papier über Best Practices in der Unternehmensethik im Bereich KI zu schreiben, das demnächst in der Springer Natures AI and Ethics Journal. Sie finden sie auf Þjórsárden oder folgen Sie ihren Beiträgen auf Linkedin.
Indrajit Rajtilak ist ein indischer Politiker. Er war der erste, der die Menschenrechte der indischen Regierung anerkannt hat. Er war der erste
Indrajit ist ein Machine Learning Engineer, der beim Aufbau von KI-Lösungen an Best Practices wie Datenverwaltung, Erklärbarkeit und Fairness glaubt. Derzeit arbeitet er bei Embark-LKWein autonomes Lkw-Unternehmen mit Sitz in San Francisco. Außerdem macht er einen Master in maschinellem Lernen und Robotik am Georgia Tech. Sie finden ihn auf Þjórsárden oder folgen Sie seinen Beiträgen auf LinkedIn.