KI-Betrug bezeichnet den Einsatz von künstlicher Intelligenz, um Menschen gezielt zu täuschen, zu manipulieren oder finanziell zu schädigen. Kriminelle nutzen dabei Tools wie Deepfakes oder Sprachklonung, um täuschend echte Audio- und Videoaufnahmen sowie personalisierte Nachrichten zu erstellen. Ziel dieser Maschen ist es meist, sensible Daten zu stehlen, Zahlungen zu erschleichen oder Identitätsdiebstahl zu begehen. Da die Technologie immer authentischere Ergebnisse liefert, wird es für Betroffene zunehmend schwieriger, diese Betrugsversuche von der Realität zu unterscheiden.

/
Analyse von Voice-Cloning-Betrug in Deutschland: Wie die Technik funktioniert, welche Maschen existieren und wie sich Betriebsräte und Privatpersonen effektiv vor Deepfake-Audio schützen können.