3 Min Lesezeit

Was macht Ihnen am meisten Angst an KI? Wir fragen Internetnutzer

Bitdefender

Dezember 12, 2025

Promo
Ein Produkt zum Schutz aller Geräte - ohne Performance-Einbußen.
30 Tage kostenfrei testen
Was macht Ihnen am meisten Angst an KI? Wir fragen Internetnutzer

In der Bitdefender-Umfrage zur Cybersicherheit von Verbrauchern aus dem Jahr 2025 gaben über 7.000 Verbraucher in sieben Ländern laut und deutlich an, dass sie besorgt darüber sind, dass KI für Betrug und Täuschung missbraucht werden könnte.

Obwohl KI unglaubliche Fortschritte verspricht, gaben 37 % der Befragten an, dass „der Einsatz [von KI] in ausgeklügelten Betrugsmaschen (z. B. Deepfake-Videos)” ihre größte Sorge sei – noch vor Arbeitsplatzverlust und Fehlinformationen.

Wovor genau haben die Menschen Angst? Hinter dieser Statistik verbirgt sich eine Realität, die wie aus einer Science-Fiction-Fernsehserie stammt: KI-Systeme, die Stimmen imitieren, Gesichter fälschen und überzeugende Illusionen erzeugen können – alles, um normale Menschen um ihr Geld zu bringen.

„Ich bin es – schick mir Geld!“

In Florida verlor eine Frau 15.000 Dollar, nachdem sie einen Anruf erhalten hatte, der genau wie ihre Tochter in Not klang. Betrüger ahmten die Stimme ihrer Tochter mit Hilfe von KI-Stimmklon-Technologie nach und webten eine glaubwürdige Krisengeschichte, in der sie um dringende Hilfe baten.

Ähnlich erhielt ein anderer Elternteil einen Anruf und eine Voicemail von jemandem, der wie sein Sohn klang und behauptete, er habe einen Autounfall gehabt und brauche sofort 15.000 Dollar für die Kaution. Die Stimme klang so authentisch, dass Panik ausbrach – und fast das Geld ausgegeben wurde.

Diese Fälle sind keine Einzelfälle. Die Polizei hat gewarnt, dass Entführer und Erpresser zunehmend Deepfake-Videos und -Audiodateien als „Lebensbeweis“ verwenden, um Druck auf die Opfer auszuüben, bevor diese überprüfen können, was wirklich passiert ist.

Synthetische Gesichter

Stimmenbetrug ist erschreckend – aber die Möglichkeiten der KI beschränken sich nicht nur auf den Klang.

In Bengaluru, Indien, wurde eine 54-jährige Frau durch ein Deepfake-Video einer bekannten Persönlichkeit getäuscht, die für eine gefälschte Handelsplattform warb. Sie gab nicht nur ihre Bankdaten weiter, sondern überwies auch umgerechnet über 33 Lakh Rupien (~40.000 US-Dollar), bevor sie erkannte, dass es sich um Betrug handelte.

Weltweit wurden Deepfake-Bilder verwendet, um Führungskräfte, Prominente und Amtsträger zu imitieren und Opfer dazu zu verleiten, zu investieren, auf schädliche Links zu klicken oder sensible Daten preiszugeben.

In einem viel beachteten Vorfall im letzten Jahr wurden KI-generierte Videoanrufe verwendet, um den Finanzvorstand eines Unternehmens zu imitieren, was dazu führte, dass ein ahnungsloser Mitarbeiter mehr als 25 Millionen Dollar überwies.

Die allgemeine Gefahr durch Deepfakes

Über Finanzbetrug hinaus tauchen KI-generierte Videos auf beunruhigende Weise auf:

  • Deepfakes von echten Ärzten, die für nicht geprüfte Gesundheitsprodukte werben, wurden auf großen sozialen Plattformen verbreitet und verbreiteten Fehlinformationen.
  • Deepfake-Videos mit Vertretern der Strafverfolgungsbehörden wurden in Desinformationsbeiträgen verwendet, um die Öffentlichkeit irrezuführen und zu manipulieren.
  • In früheren Jahren nutzten Betrüger sogar gefälschte Videos von Politikern und Branchenführern, um Investoren zu täuschen.

Dies sind keine Hypothesen – es handelt sich um dokumentierte Fälle, die zeigen, wie KI die Hürden für hochrealistische Täuschungen sowohl im privaten als auch im öffentlichen Bereich senkt.

Warum es so effektiv ist

KI-Technologien, die synthetische Stimmen, Bilder und Videos generieren, sind mittlerweile so ausgereift, dass selbst Experten manchmal Schwierigkeiten haben, Echtes von Fälschungen zu unterscheiden.

Kriminelle können diese Systeme mit öffentlich zugänglichen Inhalten – Social-Media-Beiträgen, öffentlichen Reden, Podcasts – trainieren, um mit sehr wenig Originalmaterial überzeugende Imitationen zu erstellen.

Gleichzeitig begünstigen viele Verbraucher unwissentlich diese Bedrohungen, indem sie zu viele persönliche Daten online preisgeben oder grundlegende Sicherheitsmaßnahmen nicht beachten – genau die Verhaltensweisen, die in der Bitdefender-Umfrage hervorgehoben wurden.

Was Sie tun können (Sicherheitstipps für Verbraucher)

Hier sind einige praktische Möglichkeiten, wie Sie sich und Ihre Lieben im Zeitalter der KI-Täuschung schützen können:

1. Legen Sie ein „Sicherheitswort” für Ihre Familie fest: Wenn ein geliebter Mensch Sie in einer Notsituation anruft, können Sie mit einem vorher vereinbarten Codewort sofort die Situation überprüfen.

2. Überprüfen Sie unerwartete Anfragen: Wenn ein geliebter Mensch Sie um Geld bittet, halten Sie inne und überprüfen Sie die Situation über einen anderen Kanal (SMS, Video-Chat mit eingeschalteter Kamera oder über einen anderen Verwandten). Reagieren Sie niemals auf eine dringende Forderung – Betrüger setzen auf Angst und Dringlichkeit, um Skepsis zu umgehen.

3. Seien Sie skeptisch gegenüber „zu realistischen“ Medien: Deepfake-Videos und KI-Audio können äußerst überzeugend aussehen und klingen. Achten Sie auf Unstimmigkeiten (seltsame Pausen, unnatürliche Beleuchtung, nicht passende Lippensynchronisation). Wenn Ihnen etwas seltsam vorkommt, gehen Sie nicht davon aus, dass es echt ist.

4. Stärken Sie Ihre digitale Präsenz: Beschränken Sie Ihre öffentlichen Beiträge – je weniger Daten verfügbar sind, desto schwieriger ist es für Betrüger, Ihre Stimme oder Ihr Aussehen zu klonen. Verwenden Sie starke Passwörter, Multi-Faktor-Authentifizierung (MFA) und seriöse Sicherheitslösungen auf allen Geräten.

5. Sensibilisieren Sie Ihr Umfeld: Sprechen Sie mit Familienmitgliedern und Freunden – insbesondere älteren Menschen – über KI-Betrug. Sensibilisierung ist eine der wirksamsten Abwehrmaßnahmen.

6. Melden Sie verdächtige Inhalte: Wenn Sie auf einen Deepfake oder einen Betrugsversuch stoßen, melden Sie dies der Plattform und gegebenenfalls den Strafverfolgungsbehörden. Ihre Meldung könnte jemand anderem helfen.

7. Verwenden Sie ein spezielles Tool zur Betrugserkennung: Scamio, unser kostenloser Chatbot zur Betrugsbekämpfung, kann Sie vor potenziellen Angriffen auf Ihre Finanzen, Ihre Sicherheit oder Ihre Privatsphäre warnen.

tags


Autor


Bitdefender

The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”

Alle Beiträge sehen

Das könnte Sie auch interessieren

Bookmarks


loader