Hinweis: Der folgende Artikel hilft Ihnen weiter: Studie: Menschen können Deepfake-Sprache nur in 73 % der Fälle erkennen
Laut einer neuen Studie können Menschen in etwa 73 % der Fälle künstlich erzeugte Sprache erkennen. Das ist die meiste Zeit, aber es ist kein überwältigender Erfolg – was darauf hindeutet, dass es möglicherweise viele Möglichkeiten dafür gibt Deepfake-Sprachaudio um Sie in naher Zukunft zu betrügen.
Nach der Studie wurden die Teilnehmer darin geschult, generierte Sprach-Audioclips zu erkennen, und zwar etwas besser, aber immer noch nicht perfekt. Selbst mit Schulung kann Deepfake-Audio den Durchschnittsmenschen täuschen.
Die Studie kam sogar zu ähnlichen Ergebnissen in den beiden getesteten Sprachen Englisch und Mandarin.
Wie die neue Studie Deepfake-Sprache bekämpfte
Die Studium wurde von Forschern des University College London durchgeführt, die eine Text-to-Speech-KI anhand von zwei Datensätzen trainierten, um 50 Sprachproben in den beiden verschiedenen Sprachen zu generieren. Dann hörten sich 529 Teilnehmer Audioclips an und versuchten herauszufinden, welche gefälscht waren und welche von einem echten Menschen aus Fleisch und Blut gesprochen wurden.
Erhalten Sie zwei Monate KOSTENLOS, wenn Sie sich noch heute bei Surfshark VPN anmelden 📅📅
Schnappen Sie sich jetzt den Deal 🔥
Das Ergebnis: 73 % Genauigkeit. Mit anderen Worten: Jeder vierte Deepfake-Audio-Versuch kann davon ausgehen, dass er funktioniert, ohne dass bei seinen Zielen Warnsignale ausgelöst werden.
Kimberly Mai, die Erstautorin der Studie, erklärte, dass dies eine schlechte Nachricht sei:
Deepfake-Sprachbetrug kommt häufiger vor, als Sie denken
Audio-Deepfakery könnte sich anhören Unmögliche Mission Laut einer Umfrage hat jedoch jeder vierte Erwachsene bereits Erfahrung mit Spionagetechnologie.
Dieselbe McAfee-Umfrage ergab, dass 10 % persönlich angegriffen wurden und weitere 15 % jemanden kannten, der es war. Gleichzeitig waren sich die Opfer ziemlich sicher, dass sie sich nicht täuschen ließen. Als leitender Tech.co-Autor Aaron Drapkin Leg es damals:
Von den Opfern in den USA, die durch KI-Stimmenklonungsbetrug Geld verloren haben, verloren 11 % zwischen 5.000 und 15.000 US-Dollar.
Nun zeigt die neue Umfrage, dass viele dieser Menschen immer noch vom richtigen Audioclip angetan wären.
Können Sie gefälschte Audio-Sprache noch erkennen?
Die gute Nachricht ist, dass der Durchschnittsmensch in 73 % der Fälle immer noch herausfinden kann, wann Sprache computergeneriert ist. Und mit dem richtigen Training können Sie Ihren Durchschnitt leicht steigern.
Der beste Weg, auf der sicheren Seite zu bleiben, besteht jedoch wahrscheinlich darin, ein wenig analytisches Denken außerhalb der Audioaufnahme selbst anzustellen: Werden Sie aufgefordert, vertrauliche Informationen preiszugeben? Dies deutet auf ein Motiv hinter einem möglichen Betrug hin. Haben Sie den Prozess selbst initiiert? Ein Betrüger wird Sie ins Visier nehmen und als Erster Kontakt aufnehmen.
Wir hoffen, dass sich auch die automatischen Deepfake-Sprachdetektoren weiter verbessern und dazu beitragen, unsere fehlbaren menschlichen Ohren etwas zu entlasten.