Technologische Neuigkeiten, Bewertungen und Tipps!

ChatGPT- und KI-Betrug, auf den Sie achten und den Sie vermeiden sollten

Hinweis: Der folgende Artikel hilft Ihnen weiter: ChatGPT- und KI-Betrug, auf den Sie achten und den Sie vermeiden sollten

Seit der Einführung von ChatGPT im November letzten Jahres hat es sich als äußerst nützlich erwiesen, und Arbeitnehmer auf der ganzen Welt finden jeden Tag innovative Möglichkeiten, die Technologie anzuwenden. Dies ist jedoch der Fall die Leistungsfähigkeit von KI-Tools dass sie auch für heimtückische Zwecke verwendet werden können, etwa zum Schreiben von Malware-Skripten und Phishing-E-Mails.

Neben der Nutzung künstlicher Intelligenz zur Orchestrierung von Betrügereien wurden in den letzten sechs bis acht Monaten Hacker dabei beobachtet, wie sie das heiße Thema ausnutzten, um Menschen über gefälschte Investitionsmöglichkeiten und Betrugsanwendungen um Geld zu erpressen und ihre Informationen zu stehlen.

KI-Betrügereien gehören zu den am schwersten zu erkennenden, und viele Menschen investieren nicht in Tools wie Surfshark-Antivirus, das Benutzer warnt, wenn sie im Begriff sind, verdächtige Websites aufzurufen oder eine zwielichtige App herunterzuladen. Deshalb haben wir diesen Leitfaden mit allen gängigen Taktiken zusammengestellt, die in letzter Zeit in freier Wildbahn beobachtet wurden. Alles in allem behandeln wir in diesem Artikel Folgendes:

KI-Betrug: Was sind sie und wie häufig kommen sie vor?

Wie wir in der Einleitung zu diesem Artikel angedeutet haben, kann sich „KI-Betrug“ auf zwei verschiedene Arten von Betrug beziehen, von denen im Jahr 2023 regelmäßig Beispiele aufgetaucht sind.

In KI-gestützter BetrugKünstliche Intelligenz hilft dem Betrüger dabei, den Betrug tatsächlich zu begehen, beispielsweise den Text für eine Phishing-E-Mail zu schreiben. In allgemeine KI-Betrügereiender Hacker nutzt die Popularität und den Zeitgeist von KI als Thema um neugierige Ziele anzulocken, wie zum Beispiel ein gefälschter ChatGPT-App-Betrug.

Die explosive Veröffentlichung von ChatGPT führte auch zu einer Welle schädlicher Domains, die ebenfalls in diesem Artikel besprochen werden.

In letzter Zeit, Apple Mitbegründer Steve Wozniak – kürzlich Unterzeichner von ein Brief, in dem eine Pause bei der KI-Entwicklung gefordert wird – warnte davor, dass künstliche Intelligenz die Erkennung von Betrügereien erheblich erschweren und es böswilligen Akteuren ermöglichen wird, immer überzeugender zu klingen. Die Ära der KI-gestützten Betrügereien ist angebrochen.

Ähnlich wie Ransomware-as-a-Service Während KI-Tools wie ChatGPT das Niveau der technischen Fähigkeiten, die für einen Angriff auf ein Unternehmen erforderlich sind, gesenkt haben, können so ziemlich jeder überzeugend klingen, so dass theoretisch eine größere Bevölkerungsgruppe sie jetzt effektiv orchestrieren kann.

KI-gestützter Phishing-Betrug

Phishing-Betrügereien gibt es schon seit Jahren – Betrüger verschicken E-Mails oder Textnachrichten, die sich als seriöse Unternehmen wie Microsoft ausgeben, um Sie zum Klicken auf einen Link zu verleiten, der Sie auf eine bösartige Website führt.

Von dort aus kann ein Bedrohungsakteur Malware in Ihr Gerät einschleusen oder persönliche Informationen wie ein Passwort stehlen. In der Vergangenheit waren Rechtschreib- und Grammatikfehler, die ein so renommiertes Unternehmen wie Microsoft in einer offiziellen E-Mail an seine Kunden einfach nicht machen würde, eine der einfachsten Möglichkeiten, sie zu erkennen.

Im Jahr 2023 können Sie dies jedoch mit einer einfachen Aufforderung tun Eingabeaufforderung ChatGPT um einen sauberen, flüssigen Text zu erstellen, der keine Rechtschreibfehler enthält. Dies macht es deutlich schwieriger, zwischen legitimer Korrespondenz und Phishing-Angriffen zu unterscheiden.

Wenn Sie ChatGPT ausdrücklich bitten, eine E-Mail zum Zweck des Phishings zu erstellen, lehnt der Chatbot dies ab. Wir haben ChatGPT jedoch gebeten, zwei verschiedene Arten von E-Mails zu erstellen, die möglicherweise als Vorlage für einen Phishing-Betrug verwendet werden könnten, und überraschenderweise scheint es, dass diese Art von Anfragen durch die Inhaltsregeln nicht blockiert werden:

Schützen Sie sich vor KI-Phishing-Betrug

Wenn Sie eine E-Mail erhalten, die den Anschein erweckt, als käme sie von einem seriösen Unternehmen, in der jedoch versucht wird, bei Ihrer Entscheidungsfindung ein Gefühl der Dringlichkeit zu vermitteln (z. B. indem Sie aufgefordert werden, eine Geldstrafe zu zahlen oder sich in Ihrem Konto anzumelden, um eine Löschung zu verhindern), behandeln Sie das Gehen Sie dabei äußerst vorsichtig vor. Dies ist eine typische Phishing-Taktik.

Denken Sie daran: Wenn Sie der Meinung sind, dass die E-Mail höchstwahrscheinlich echt ist, können Sie jederzeit eine neue Kommunikationslinie mit der Person oder dem Unternehmen eröffnen.

Wenn Sie beispielsweise eine verdächtige E-Mail von Ihrer Bank erhalten, die besagt, dass ein unbefugter Dritter auf Ihr Konto zugegriffen hat, antworten Sie nicht auf die E-Mail – sondern wenden Sie sich einfach selbst an den Kundendienst der Bank unter der unten aufgeführten Nummer oder Adresse ihre Website.

KI-Betrug in sozialen Medien

Kürzlich wurde dies von der Cybersicherheitsfirma Checkpoint entdeckt eine neue Art von KI-Betrug macht die Runde weiter Facebook. Sie haben beobachtet, wie Bedrohungsakteure Fälschungen erstellten Facebook Seiten, die angeblich „erweiterte“ Versionen von KI-Tools wie „Smart Bard“ bewerben. In Wirklichkeit existiert das Produkt nicht.

Bei der Betrugsmasche nutzen die Bedrohungsakteure gesponserte Beiträge mit diesen Inhalten Facebook Seiten, um Werbung gezielt an ahnungslose Benutzer zu richten, die Links zu bösartigen Domänen enthalten. Sobald Benutzer die Domänen besuchen, versuchen die Betrüger, sie zum Herunterladen von „KI-Software“ zu überreden, bei der es sich in Wirklichkeit um Malware handelt, die Informationen stiehlt.

Bei Benutzern, die auf den Betrug hereingefallen sind und ihn heruntergeladen haben, werden die Passwörter und andere vertrauliche Informationen von ihren Geräten extrahiert und an einen von den Bedrohungsakteuren verwalteten Server gesendet.

Besorgniserregend an diesem Betrug sind die großen Anstrengungen, die die Bedrohungsakteure unternommen haben Facebook Seiten sehen legitim aus, einschließlich der Verwendung einer Armee von Bots, um überall in ihren Beiträgen positive Kommentare zu hinterlassen. Einige der Seiten hätten laut Checkpoint eine große Anzahl von Likes erhalten. Auf den ersten Blick sieht alles ziemlich legitim aus – was nie ein gutes Zeichen ist.

(Bildquelle: Checkpoint)

Schützen Sie sich vor KI-Betrug in sozialen Medien

Denken Sie daran: Nur weil eine Seite in den sozialen Medien viele „Gefällt mir“-Angaben und viel Engagement für ihren Beitrag hat, heißt das nicht unbedingt, dass sie legitim ist – es ist überraschend einfach, diesen Hauch von Legitimität in den sozialen Medien entweder zu kaufen oder künstlich herzustellen.

Soziale Medien sind eine Brutstätte für Betrüger. Daher sollte die Interaktion mit Seiten, die Sie noch nie zuvor gesehen haben und die verbesserte Versionen bestehender Software versprechen, mit Argwohn behandelt werden. Darüber hinaus zeigt eine schnelle Google-Suche, dass Programme wie „GPT-5“ und „Bard V2“ (jedenfalls noch) nicht existieren. Derartige wilde Versprechungen sind ein verräterisches Zeichen dafür, dass etwas vielleicht einfach zu schön ist, um wahr zu sein – und in diesem Fall ist es das auch.

Ebenso schließt das Vorhandensein legitim aussehender Links – die problemlos in Seitenbeschreibungsfelder und Beiträge eingefügt werden können – nicht die Möglichkeit aus, dass andere Links böswillig sein könnten. Wenn Sie einen Chatbot herunterladen möchten, gehen Sie direkt zur Website des Unternehmens oder der Organisation und nicht über einen Link in den sozialen Medien.

Betrug beim Klonen von KI-Stimmen

AI-Voice-Betrug ist eine Art KI-gestützter Betrug, der in den letzten Monaten für Schlagzeilen gesorgt hat. A globale McAfee-Umfrage stellte kürzlich fest, dass 10 % der Befragten bereits persönlich Ziel eines KI-Sprachbetrugs waren. Weitere 15 % gaben an, jemanden zu kennen, der ins Visier genommen wurde.

Bei KI-Sprachbetrügereien löschen böswillige Akteure Audiodaten aus dem Social-Media-Konto eines Ziels und leiten sie dann über eine Text-to-Speech-App weiter, die neue Inhalte im Stil des Originalaudios generieren kann. Auf diese Art von Apps kann online kostenlos zugegriffen werden und sie haben legitime, nicht schändliche Verwendungszwecke.

Der Betrüger erstellt eine Voicemail oder Sprachnotiz, in der er beschreibt, wie sein Ziel verzweifelt ist und dringend Geld braucht. Diese wird dann an ihre Familienmitglieder verschickt, in der Hoffnung, dass sie nicht zwischen der Stimme ihres geliebten Menschen und einer von der KI generierten Version unterscheiden können.

Schützen Sie sich vor KI-Sprachbetrug

Der Federal Trade Commission (FTC) rät Verbrauchern, ruhig zu bleiben, wenn sie eine Korrespondenz erhalten, die angeblich von einem geliebten Menschen in Not stammt, und zu versuchen, die Nummer anzurufen, von der sie den Anruf erhalten haben, um sich zu vergewissern, dass es sich tatsächlich um eine echte Nachricht handelt.

Wenn Sie der Meinung sind, dass Sie sich in dieser Situation befinden und die Nummer nicht anrufen können, versuchen Sie es mit der normalen Telefonnummer der betreffenden Person. Wenn Sie keine Antwort erhalten, versuchen Sie, ihren Aufenthaltsort zu überprüfen, indem Sie Personen in ihrer Nähe kontaktieren – und überprüfen Sie Apps wie „Meine Freunde suchen“, wenn Sie diese verwenden, um zu sehen, ob sie sich an einem sicheren Ort befinden.

Wenn Sie ihren Aufenthaltsort nicht überprüfen können, ist es wichtig, dass Sie sich sofort an die Strafverfolgungsbehörden wenden. Wenn Sie feststellen, dass es sich um einen Betrug handelt, stellen Sie sicher, dass Sie dies direkt der FTC melden.

Betrügerische ChatGPT-App-Betrügereien

Wie bei jedem anderen großen Technologietrend werden Betrüger ihn für schändliche Zwecke ausnutzen, wenn die Leute darüber reden – und, was noch wichtiger ist, danach suchen. ChatGPT ist ein Paradebeispiel dafür.

A Aktueller Bericht von Sophos hat eine Vielzahl von ChatGPT-angrenzenden Apps gefunden, die als „Fleeceware“ bezeichnet werden. Fleeceware-Apps bieten ein kostenloses Programm mit eingeschränkter Funktionalität und bombardieren Benutzer dann mit In-App-Werbung, bis sie sich für ein überteuertes Abonnement anmelden.

Nach Angaben des Cybersicherheitsunternehmens „können die Entwickler dieser irreführenden Apps durch eine Kombination aus Werbung innerhalb und außerhalb der App-Stores und gefälschten Bewertungen, die die Bewertungssysteme der Stores manipulieren, ahnungslose Gerätebenutzer zum Herunterladen dieser Apps verleiten“.

Demnach hat eine gefälschte ChatGPT-App namens Genie, die Abonnements für 7 US-Dollar pro Woche oder 70 US-Dollar pro Jahr anbietet, über einen monatlichen Zeitraum 1 Million US-Dollar verdient SensorTower. Andere haben Zehntausende Pfund verdient. Ein weiteres namens „Chat GBT“ im Android Store wurde im Bericht von Sophos ausdrücklich genannt:

(Bildnachweis: Sophos)

Nach Angaben des Cybersicherheitsunternehmens sind die „Pro“-Funktionen, für die Benutzer am Ende eine hohe Summe zahlen, „im Wesentlichen die gleichen“ wie die kostenlose Version. Sie berichten auch, dass der Rezensionen-Bereich vor der Deaktivierung der App übersät war mit „Kommentaren von Leuten, die die App heruntergeladen und festgestellt hatten, dass sie nicht funktionierte – entweder zeigte sie nur Werbung an oder antwortete nicht auf Fragen, als sie entsperrt wurde.“

Schützen Sie sich vor gefälschten ChatGPT-App-Betrügereien

Der einfachste Weg, um sicherzustellen, dass Ihnen diese Art von Abonnementgebühren nicht entstehen – oder unerwünschte Malware herunterladen – besteht darin, die Apps einfach nicht herunterzuladen. iPhone-Benutzer können jetzt herunterladen die offizielle ChatGPT-App, das kürzlich gestartet wurde. Es wird interessant sein zu sehen, ob dies den Untergang der gefälschten ChatGPT-Apps bedeutet, die derzeit den App Store bevölkern.

Alternativ können sowohl iOS- als auch Android-Benutzer einen ChatGPT-Weblink zu ihrem Startbildschirm hinzufügen. Wenn Sie ein iPhone-Benutzer sind, können Sie eine Siri-Verknüpfung erstellen, die Sie direkt zu ChatGPT im Web führt. In diesem Zusammenhang gibt es kaum einen praktischen Unterschied zwischen der Startbildschirmverknüpfung und einer nativen Anwendung.

Gefälschte ChatGPT-Websites

Neben gefälschten ChatGPT-Apps gibt es auch eine Reihe gefälschter ChatGPT-Websites, die sich das enorme Suchvolumen rund um den Begriff zunutze machen.

Im Februar 2023, Twitter Der Benutzer Alvosec identifizierte vier Domänen, die alle Malware unter einem ChatGPT-bezogenen Namen verbreiteten:

⚠️ Hüten Sie sich davor #ChatGPT Domains, die Malware verbreiten

chat-gpt-windows[.]com
chat-gpt-online-pc[.]com
chat-gpt-pc[.]online
chat-gpt[.]laufen@OpenAI #Internet-Sicherheit #infosec pic.twitter.com/hOZIVGN4Wi

— Alvosec ⚛️ (@alvosec) 23. Februar 2023

In einigen Berichten wurde darauf hingewiesen, dass gefälschte ChatGPT-Websites den Chatbot von OpenAI als herunterladbares Angebot anbieten Windows Es handelt sich dabei nicht um eine In-Browser-Anwendung, sondern um eine Anwendung, die es ihnen ermöglicht, Malware auf Geräte zu laden.

So schützen Sie sich vor gefälschten ChatGPT-Websites

Denken Sie daran, dass ChatGPT ein OpenAI-Produkt ist und die einzige Möglichkeit, auf den Chatbot zuzugreifen, über die mobile App oder speziell über deren Domain erfolgt. „ChatGPT[.]com“ hat beispielsweise nichts mit dem echten, legitimen ChatGPT zu tun, und Sie können ChatGPT nicht herunterladen, als wäre es ein Software-Client.

Seltsamerweise enthält die URL für die legitime ChatGPT-Registrierungs-/Login-Landingpage nicht einmal das Wort „ChatGPT“: https://chat.openai.com/auth/login.

Sie können sich auch über den Blog von OpenAI anmelden (https://openai.com/blog/chatgpt), aber auch dies ist Teil der OpenAI-Domäne. Wenn Ihnen jemand einen Link zu einer ChatGPT-Website sendet, der nicht zu einer der oben genannten Adressen führt, raten wir Ihnen, nicht darauf zu klicken und stattdessen über Google zur legitimen Website zu navigieren.

KI-Investitionsbetrug

Ähnlich wie bei Kryptowährungen nutzen Betrüger den Hype um KI – sowie die Technologie selbst –, um gefälschte Investitionsmöglichkeiten zu schaffen, die echt erscheinen.

„TeslaCoin“ und „TruthGPT-Münze„Beide wurden bei Betrügereien eingesetzt, indem sie den Medienrummel um Elon Musk und ChatGPT huckepack nahmen und sich selbst als trendige Investitionsmöglichkeiten darstellten.

Das kalifornische Ministerium für Finanzschutz und Innovation behauptet, dass ein Unternehmen namens Maxpread Technologies einen gefälschten, von KI generierten CEO erstellt und ihn mit einem Skript programmiert hat, das Börsenspekulanten zum Investieren ermutigt (siehe Abbildung unten). Das Unternehmen wurde ausgestellt eine Unterlassungsverfügung.

(Bildnachweis: Coinstats.app)

Forbes berichtet, dass eine andere Investmentgesellschaft, Harvest Keeper – die laut DFPI bereits im März zusammengebrochen ist – einen Schauspieler engagiert hat, der sich als CEO ausgibt, um begeisterte Kunden zu gewinnen. Dies verdeutlicht, welche Anstrengungen einige Betrüger unternehmen, um sicherzustellen, dass ihr Angebot realistisch genug ist.

Schützen Sie sich vor KI-Investitionsbetrug

Wenn sich jemand, den Sie nicht kennen, direkt mit Investitionsmöglichkeiten an Sie wendet, gehen Sie mit seinen Tipps äußerst vorsichtig um. Lohnende Investitionsmöglichkeiten geraten auf diese Weise eher selten in den Schoß der Menschen.

Wenn es zu schön klingt, um wahr zu sein, und jemand Ihnen garantierte Renditen anbietet, glauben Sie ihm nicht. Bei Investitionen gibt es nie eine garantierte Rendite und Ihr Kapital ist immer gefährdet.

Wenn Sie jemand sind, der regelmäßig in Unternehmen investiert, wissen Sie, wie wichtig es ist, Ihre Sorgfaltspflicht zu erfüllen, bevor Sie sich von Ihrem hart verdienten Geld trennen. Angesichts der Begeisterung für verwandte Produkte und der Verbreitung von Betrügereien empfehlen wir, potenzielle KI-Investitionen noch genauer zu prüfen.

KI-Betrug: Sie werden nur noch schlimmer

Im Jahr 2022 haben die US-Verbraucher enorme Verluste erlitten 8,8 Milliarden US-Dollar für Betrügereien – und es ist unwahrscheinlich, dass es 2023 anders sein wird. Zeiten finanzieller Instabilität gehen häufig mit einem Anstieg der Betrugsfälle einher Auch weltweit haben viele Länder Probleme.

Derzeit ist künstliche Intelligenz eine Goldgrube für Betrüger. Alle reden darüber, doch nur wenige haben wirklich Ahnung, was was ist, und Unternehmen aller Formen und Größen drängen mit KI-Produkten auf den Markt. Ethische Fragen rund um KI beginnen gerade erst, die Aufmerksamkeit zu erregen, die sie verdienen.

Es ist wichtig, über die neuesten Betrügereien, die die Runde machen, auf dem Laufenden zu bleiben, und da die KI es viel schwieriger macht, sie zu erkennen, ist dies umso wichtiger. Die FTC, das FBI und andere Bundesbehörden geben regelmäßig Warnungen heraus, daher wird dringend empfohlen, ihnen in den sozialen Medien zu folgen, um über die neuesten Updates informiert zu sein.

Wir empfehlen jedoch auch den Kauf eines VPN mit Malware-Erkennung, z NordVPN oder Surfhai. Beide verbergen Ihre IP-Adresse wie ein Standard-VPN, machen Sie aber auch auf verdächtige Websites aufmerksam, die auf den Suchergebnisseiten von Google lauern. Sich mit dieser Technologie auszustatten, ist ein wichtiger Teil Ihrer Online-Sicherheit.

Table of Contents