
In der Bitdefender-Umfrage zur Cybersicherheit von Verbrauchern aus dem Jahr 2025 gaben über 7.000 Verbraucher in sieben Ländern laut und deutlich an, dass sie besorgt darüber sind, dass KI für Betrug und Täuschung missbraucht werden könnte.
Obwohl KI unglaubliche Fortschritte verspricht, gaben 37 % der Befragten an, dass „der Einsatz [von KI] in ausgeklügelten Betrugsmaschen (z. B. Deepfake-Videos)” ihre größte Sorge sei – noch vor Arbeitsplatzverlust und Fehlinformationen.
Wovor genau haben die Menschen Angst? Hinter dieser Statistik verbirgt sich eine Realität, die wie aus einer Science-Fiction-Fernsehserie stammt: KI-Systeme, die Stimmen imitieren, Gesichter fälschen und überzeugende Illusionen erzeugen können – alles, um normale Menschen um ihr Geld zu bringen.
In Florida verlor eine Frau 15.000 Dollar, nachdem sie einen Anruf erhalten hatte, der genau wie ihre Tochter in Not klang. Betrüger ahmten die Stimme ihrer Tochter mit Hilfe von KI-Stimmklon-Technologie nach und webten eine glaubwürdige Krisengeschichte, in der sie um dringende Hilfe baten.
Ähnlich erhielt ein anderer Elternteil einen Anruf und eine Voicemail von jemandem, der wie sein Sohn klang und behauptete, er habe einen Autounfall gehabt und brauche sofort 15.000 Dollar für die Kaution. Die Stimme klang so authentisch, dass Panik ausbrach – und fast das Geld ausgegeben wurde.
Diese Fälle sind keine Einzelfälle. Die Polizei hat gewarnt, dass Entführer und Erpresser zunehmend Deepfake-Videos und -Audiodateien als „Lebensbeweis“ verwenden, um Druck auf die Opfer auszuüben, bevor diese überprüfen können, was wirklich passiert ist.
Stimmenbetrug ist erschreckend – aber die Möglichkeiten der KI beschränken sich nicht nur auf den Klang.
In Bengaluru, Indien, wurde eine 54-jährige Frau durch ein Deepfake-Video einer bekannten Persönlichkeit getäuscht, die für eine gefälschte Handelsplattform warb. Sie gab nicht nur ihre Bankdaten weiter, sondern überwies auch umgerechnet über 33 Lakh Rupien (~40.000 US-Dollar), bevor sie erkannte, dass es sich um Betrug handelte.
Weltweit wurden Deepfake-Bilder verwendet, um Führungskräfte, Prominente und Amtsträger zu imitieren und Opfer dazu zu verleiten, zu investieren, auf schädliche Links zu klicken oder sensible Daten preiszugeben.
In einem viel beachteten Vorfall im letzten Jahr wurden KI-generierte Videoanrufe verwendet, um den Finanzvorstand eines Unternehmens zu imitieren, was dazu führte, dass ein ahnungsloser Mitarbeiter mehr als 25 Millionen Dollar überwies.
Über Finanzbetrug hinaus tauchen KI-generierte Videos auf beunruhigende Weise auf:
Dies sind keine Hypothesen – es handelt sich um dokumentierte Fälle, die zeigen, wie KI die Hürden für hochrealistische Täuschungen sowohl im privaten als auch im öffentlichen Bereich senkt.
KI-Technologien, die synthetische Stimmen, Bilder und Videos generieren, sind mittlerweile so ausgereift, dass selbst Experten manchmal Schwierigkeiten haben, Echtes von Fälschungen zu unterscheiden.
Kriminelle können diese Systeme mit öffentlich zugänglichen Inhalten – Social-Media-Beiträgen, öffentlichen Reden, Podcasts – trainieren, um mit sehr wenig Originalmaterial überzeugende Imitationen zu erstellen.
Gleichzeitig begünstigen viele Verbraucher unwissentlich diese Bedrohungen, indem sie zu viele persönliche Daten online preisgeben oder grundlegende Sicherheitsmaßnahmen nicht beachten – genau die Verhaltensweisen, die in der Bitdefender-Umfrage hervorgehoben wurden.
Hier sind einige praktische Möglichkeiten, wie Sie sich und Ihre Lieben im Zeitalter der KI-Täuschung schützen können:
1. Legen Sie ein „Sicherheitswort” für Ihre Familie fest: Wenn ein geliebter Mensch Sie in einer Notsituation anruft, können Sie mit einem vorher vereinbarten Codewort sofort die Situation überprüfen.
2. Überprüfen Sie unerwartete Anfragen: Wenn ein geliebter Mensch Sie um Geld bittet, halten Sie inne und überprüfen Sie die Situation über einen anderen Kanal (SMS, Video-Chat mit eingeschalteter Kamera oder über einen anderen Verwandten). Reagieren Sie niemals auf eine dringende Forderung – Betrüger setzen auf Angst und Dringlichkeit, um Skepsis zu umgehen.
3. Seien Sie skeptisch gegenüber „zu realistischen“ Medien: Deepfake-Videos und KI-Audio können äußerst überzeugend aussehen und klingen. Achten Sie auf Unstimmigkeiten (seltsame Pausen, unnatürliche Beleuchtung, nicht passende Lippensynchronisation). Wenn Ihnen etwas seltsam vorkommt, gehen Sie nicht davon aus, dass es echt ist.
4. Stärken Sie Ihre digitale Präsenz: Beschränken Sie Ihre öffentlichen Beiträge – je weniger Daten verfügbar sind, desto schwieriger ist es für Betrüger, Ihre Stimme oder Ihr Aussehen zu klonen. Verwenden Sie starke Passwörter, Multi-Faktor-Authentifizierung (MFA) und seriöse Sicherheitslösungen auf allen Geräten.
5. Sensibilisieren Sie Ihr Umfeld: Sprechen Sie mit Familienmitgliedern und Freunden – insbesondere älteren Menschen – über KI-Betrug. Sensibilisierung ist eine der wirksamsten Abwehrmaßnahmen.
6. Melden Sie verdächtige Inhalte: Wenn Sie auf einen Deepfake oder einen Betrugsversuch stoßen, melden Sie dies der Plattform und gegebenenfalls den Strafverfolgungsbehörden. Ihre Meldung könnte jemand anderem helfen.
7. Verwenden Sie ein spezielles Tool zur Betrugserkennung: Scamio, unser kostenloser Chatbot zur Betrugsbekämpfung, kann Sie vor potenziellen Angriffen auf Ihre Finanzen, Ihre Sicherheit oder Ihre Privatsphäre warnen.
tags
The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”
Alle Beiträge sehenMärz 13, 2025
Juli 12, 2024
Juli 01, 2024
Juni 10, 2024