Technologische Neuigkeiten, Bewertungen und Tipps!

Meta hat DALL-E für Videos gemacht und es ist gruselig und erstaunlich zugleich

Der folgende Artikel hilft Ihnen dabei: Meta hat DALL-E für Videos gemacht und es ist gruselig und erstaunlich zugleich

Meta hat ein verrücktes Modell der künstlichen Intelligenz vorgestellt, das es Benutzern ermöglicht, ihre eingegebenen Beschreibungen in Videos umzuwandeln. Das System heißt Make-A-Video und ist der neueste Trend zu KI-generierten Inhalten im Web.

Das System akzeptiert kurze Beschreibungen wie „ein Roboter, der auf einer Welle im Meer surft“ oder „Clownfisch, der durch das Korallenriff schwimmt“ und generiert dynamisch ein kurzes GIF der Beschreibung. Es stehen sogar drei verschiedene Videostile zur Auswahl: surreal, realistisch und stilisiert.

Die Pinselmalerei eines Künstlers auf einer Leinwand aus nächster Nähe

Laut a Facebook In einem Beitrag von Mark Zuckerberg, CEO von Meta, ist es viel schwieriger, geschriebenen Text in Video zu übersetzen, da Videos Bewegung erfordern:

„Es ist viel schwieriger, Videos zu erstellen als Fotos, da das System neben der korrekten Erzeugung jedes Pixels auch vorhersagen muss, wie sich diese im Laufe der Zeit verändern werden. Make-A-Video löst dieses Problem, indem es eine Ebene des unbeaufsichtigten Lernens hinzufügt, die es dem System ermöglicht, Bewegungen in der physischen Welt zu verstehen und sie auf die herkömmliche Text-zu-Bild-Generierung anzuwenden.“

Ein junges Paar geht bei starkem Regen spazieren

Das KI-Forschungsteam von Meta hat einen Artikel verfasst, in dem beschrieben wird, wie das System funktioniert und wie es sich von aktuellen Text-to-Image-Methoden (T2I) unterscheidet. Im Gegensatz zu anderen Maschinensprachenmodellen verwendet die Text-to-Video-Methode (T2V) von Meta keine vordefinierten Text-Video-Paare. Beispielsweise wird „Gehender Mann“ nicht mit einem Video verknüpft, in dem ein tatsächlich gehender Mann zu sehen ist.

Wenn das sehr nach DALL-E, der beliebten T2I-Anwendung, klingt, sind Sie hier genau richtig. Seit der Popularität von DALL-E wurden weitere T2I-Anwendungen eingeführt. TikTok hat im August einen Filter namens AI Greenscreen veröffentlicht, der Bilder im Malstil basierend auf den von Ihnen eingegebenen Wörtern generiert.

Ein flauschiges Faultierbaby mit einer orangefarbenen Strickmütze, das versucht, einen Laptop zu erkennen, Nahaufnahme eines hochdetaillierten Studiobeleuchtungsbildschirms, der sich in seinem Auge spiegelt

KI-generierte Inhalte haben in den letzten Jahren große Aufmerksamkeit erregt. Deepfake-Technologie, maschinelle Lerntechniken, um das Gesicht einer Person durch ein anderes zu ersetzen, wird sogar von Visual-Effects-Studios für Shows mit großem Budget wie The Mandalorian eingesetzt.

Im Juli berichtete die Times fälschlicherweise über eine ukrainische Frau inmitten des russisch-ukrainischen Krieges. Das Problem ist, dass sie nicht echt war.

Die Bedrohung durch KI ist wahrscheinlich keine wirkliche Bedrohung, aber Projekte wie DALL-E und Make-A-Video sind unterhaltsame Erkundungen einiger der interessanten Möglichkeiten.

Table of Contents