100 Millionen Euro weg – So funktioniert Social Engineering in der Praxis

Episode Notes
Die größten Social-Engineering-Fälle der letzten Jahre – Was Unternehmen jetzt daraus lernen müssen Social Engineering zählt zu den gefährlichsten Bedrohungen im Bereich der Cybersicherheit – nicht, weil es technische Schwächen angreift, sondern menschliche. In dieser Episode von SocialSec – Der Awareness Podcast analysieren wir einige der spektakulärsten Fälle der letzten Jahre: Vom 100-Millionen-Dollar-Betrug über CEO-Fraud bei FACC bis zum Twitter-Hack durch einen Teenager. Was haben sie gemeinsam? Sie zeigen, wie leicht sich Menschen durch Autorität, Zeitdruck und geschickte Kommunikation manipulieren lassen.
🎯 Zielgruppe dieser Folge Diese Folge richtet sich an Verantwortliche in IT-Security, HR, Kommunikation, OSINT, C-Level sowie alle, die in Awareness-Trainings involviert sind – vom mittelständischen Unternehmen bis zum internationalen Konzern. Auch für Behörden, Bildungseinrichtungen und Sportorganisationen bietet sie wichtige Learnings. 🧠 Fälle, die du in dieser Folge kennenlernst
-
Der 100-Millionen-Dollar-Fall Ein ganz normaler Tag in der Buchhaltung – eine scheinbare Anweisung des CEOs, ein echter Anruf, diskrete Sprache, und plötzlich sind 34 Millionen Euro überwiesen. Keine gehackten Systeme, keine Malware – nur Worte und Überzeugungskraft.
-
FACC (Österreich, 2016) Ein CEO-Fraud der besonderen Klasse: Eine Buchhalterin überweist 42 Millionen Euro im Glauben, einem echten Auftrag zu folgen. Der CEO verliert später seinen Posten – wegen Kontrollversagens. Lehre: Vertrauen ist keine Kontrollstrategie.
-
Twitter-Hack (USA, 2020) Elon Musk, Barack Obama und viele mehr posten gleichzeitig einen Bitcoin-Scam. Der Täter? Ein 17-jähriger, der durch Social Engineering Zugriff auf das interne Admin-Backend von Twitter erhielt – nicht über Technik, sondern über Mitarbeitende.
-
KPMG-Barclays-Fall Ein Mann im Anzug mit Firmenlogo betritt ein Bürogebäude, gibt sich als IT-Techniker aus und installiert unbemerkt einen Fernzugriff. Was wie ein Film klingt, war ein legaler Penetrationstest – mit erschreckend einfachem Erfolg.
📊 Was alle Fälle gemeinsam haben
- Ausnutzung von Autorität und Zeitdruck
- Isolation durch „vertrauliche“ Anweisungen
- Fehlende Verifizierungsprozesse
- Mangelnde Fehlerkultur
- Psychologische Trigger statt technischer Schwachstellen
🛡️ Wichtige Handlungsempfehlungen Diese Folge liefert nicht nur spannende Fälle, sondern klare, sofort umsetzbare Maßnahmen:
- Rückrufe & Kommunikationskanäle doppelt absichern
- Vier-Augen-Prinzip bei sensiblen Zahlungen
- Awareness-Trainings mit echten Beispielen
- Technische & organisatorische Verifizierung einführen
- Security-Teams mit HR und Kommunikation vernetzen
- Regelmäßige Phishing-Simulationen & Rollenspiele
🔎 Wichtige SEO-Keywords aus der Folge
- Social Engineering
- CEO-Fraud
- Deepfake Anrufe
- KPMG Pentest
- Twitter-Hack 2020
- FACC Betrugsfall
- OSINT Awareness Training
- Human Hacking
- Phishing-Simulation
- Security Culture
📣 Warum das Thema für jede Branche relevant ist Vom IT-Unternehmen bis zur Sportorganisation: Überall arbeiten Menschen – und genau dort setzen Angreifer an. Besonders in stressigen, autoritären oder stark hierarchischen Umfeldern sind die klassischen Trigger besonders wirkungsvoll. 🎧 Jetzt reinhören & lernen, bevor es passiert Diese Folge ist ein Weckruf. Nicht technisch, sondern menschlich. Denn das schwächste Glied der Sicherheitskette ist nicht dein Server – es ist dein Team, wenn es nicht vorbereitet ist.
➡️ Jetzt hören, abonnieren & teilen – damit Awareness mehr ist als ein Schlagwort.
Du hast Feedback, Fragen zu dieser Folge oder ein Thema, das dich besonders interessiert? Wir freuen uns über den Austausch mit dir! Schick uns deine Vorschläge und Anregungen gerne per E-Mail an [email protected].
Weitere Informationen rund um Awareness-Trainings, echte Fälle und Maßnahmen gegen Social Engineering findest du auf unserer Website: 👉 www.socialsec.de
Bleib sicher, bleib wachsam – und bis zur nächsten Folge von SocialSec – Der Awareness Podcast.