IT-Sicherheit
Wie lassen sich IT-Systeme sicherer machen?
„Die Sicherheitsrisiken für IT-Systeme sind vielfältig“, sagt Jörn Müller-Quade. Der Professor für IT-Sicherheit leitet die Forschungsgruppe „Kryptographie und Sicherheit” am Institut für Informationssicherheit und Verlässlichkeit (KASTEL) des Karlsruher Instituts für Technologie (KIT) und ist Direktor am Forschungszentrum Informatik (FZI). “Am bekanntesten sind sicher Malware und klassische Hackerangriffe. Viele Angriffe bemerk man aber nicht, wenn etwa Systeme ausspioniert und Informationen über deren Verwundbarkeit gesammelt werden.” Diese kommen heute längst nicht mehr nur von Computerfreaks, die ihre Fähigkeiten ausprobieren wollen. Auch andere Gruppen nutzen sie für verschiedene Zwecke: Beispielsweise verschlüsseln Kriminelle mit Ransom Ware die Computer, um diese erst gegen Lösegeld wieder freizugeben. Die Militärapparate von Staaten versuchen, über digitale Wege die Infrastruktur ihrer Gegner zu schwächen. Und auch die Geheimdienste nutzen spezielle Programme, etwa um mehr über die Wirtschaft von Freund und Feind zu erfahren.
Dabei scheinen die Angreifer grundsätzlich im Vorteil zu sein. „Bei der IT-Sicherheit gibt es tatsächlich eine Asymmetrie“, erklärt Jörn Müller-Quade. „Die Verteidiger müssen alle Sicherheitslücken schließen, die Angreifer hingegen nur eine offene finden.“ Die einzige Ausnahme von dieser Regel, fügt der Experte für Verschlüsselungen hinzu, würde für die Kryptografie gelten. „Hier wissen wir seit den Enthüllungen von Edward Snowden, dass sich selbst die NSA an modernen Verschlüsselungsverfahren die Zähne ausgebissen hat.“ Allerdings, und auch das zeigen die Enthüllungen, kam der Geheimdienst auf anderem Wege an die gewünschten Daten heran. Für Jörn Müller-Quade ist deshalb klar: „Die größte Herausforderung, vor der wir stehen, ist die Gesamtsystemsicherheit.“ Es nützt also wenig, wenn die schwere Stahltür mit fünf Riegeln fest verschlossen ist, das Fenster aber halb offensteht.
Diese Herausforderung wächst umso mehr, je schneller die Systemgrenzen fallen. Denn heute sind nicht nur Computer und Telefone über das Netz miteinander verbunden. Auch Kraftwerke und Industrieanlagen, Kühlschränke und Fernseher oder Smart Home Systeme und Stromzähler tauschen sich untereinander aus. „Wir sollten nicht alles vernetzen, was theoretisch vernetzt werden kann“, sagt der IT-Experte. „Denn viele Menschen sehen nicht die Skalierbarkeit von Cyber-Angriffen.“ Was er damit meint, ist mit einem Ausflug ins klassische Gangstermilieu leicht erklärt: In der Offline-Welt skaliert die Anzahl der Einbrüche mit der Zahl der Einbrecher. Denn selbst der schnellste Dieb kann nur in eine bestimmte Anzahl Gebäude pro Nacht eindringen. „Bei Cyber-Angriffen ist das nicht mehr gegeben“, sagt Jörn Müller-Quade. „Hier sind einem fähigen Angreifer kaum Ressourcengrenzen gesetzt.“
Denn die Ressourcen für einen Angriff muss der Täter nicht immer selbst vorhalten. Oft lässt er auch gekaperte Computersysteme argloser Nutzer auf der ganzen Welt für sich arbeiten. Zu den Attacken dieser Art gehören Überlastungsangriffe, im Fachjargon als Distributed-Denial-of-Service Attack bezeichnet.
Mit Honig fängt man nicht nur Fliegen
„Bei solchen Attacken flutet der Angreifer das System des Opfers mit enormen Datenverkehr“, erklärt Christian Rossow. Der Professor für Computersicherheit leitet die Forschungsgruppe Systemsicherheit am Helmholtz-Zentrum für Informationssicherheit (CISPA). „Dieser übersteigt in der Regel die Verarbeitungskapazitäten des Opfers und legt zum Beispiel dessen Webseite lahm, da reguläre Anfragen kaum noch beantwortet werden können.“ Das ist in etwa so, als würde man jemandem tausende unbedeutende Briefe am Tag schicken. Das würde den oder die Betroffene überlasten. Oft nutzen die Angreifer dafür hunderte Computer auf der ganzen Welt, die sie vorher mit einem Schadprogramm infiziert haben. Ohne dass die Besitzer etwas merken, werden ihre Rechner damit zur Waffe umfunktioniert.
„Solche Angriffe erfolgen zum Beispiel auf Webseiten und Online-Shops“, erklärt der Experte. Dadurch entstehen nicht nur Imageschäden, sondern mitunter auch gravierende Umsatzausfälle. Das kann von einem Mitbewerber ebenso gewollt sein, wie von Aktivisten oder Geheimdiensten. „Manche dieser Angriffe werden aber auch genutzt, um die Menschen, Unternehmen oder Organisationen zu erpressen“, fügt er hinzu. „Dann hört der Angreifer erst auf, wenn er ein Lösegeld erhalten hat.“ Ganz häufig sind auch Online-Spieler von derartigen Attacken betroffen – zum Beispiel, wenn ein neidiger Konkurrent sie für eine Weile aus dem Spiel haben will. „Mit diesen Angriffen ist es aber auch möglich, kritische Infrastrukturen direkt zu attackieren“, sagt Christian Rossow. „Sind beispielsweise mehrere Kraftwerke für eine Fernsteuerung verbunden, könnte ein Massenangriff empfindliche Störungen verursachen.“
Der IT-Experte und sein Team haben es sich deshalb zur Aufgabe gemacht, solche Massenangriffe im Internet zu finden. „Wir machen uns zum Honigtopf“, sagt er schmunzelnd. „Das heißt, wir geben uns als missbrauchbares Mittelsystem aus.“ Beißt der Angreifer an, nutzt er Rossows weltweit verteiltes Netzwerk aus angemieteten Servern für seine Angriffe und der IT-Experte ist mittendrin. „Wenn der Angriff mit Hilfe unserer Systeme gestartet wird, stehen wir natürlich vor einem Dilemma. Wir wollen einerseits nicht auffallen, uns andererseits aber auch nicht aktiv am Angriff beteiligen. Deshalb senden wir nur wenige Datenpakete, um Schaden abzuwenden.“ Dafür sitzt sein Team aber in der ersten Reihe und kann die Angriffe live dokumentieren. Und davon finden sie jeden Tag Zehntausende.
„Auf diese Weise können wir den Opfern schnell Bescheid geben, damit sie Gegenmaßnahmen ergreifen“, erklärt er, „und wir können helfen, die Angreifer zu identifizieren.“ Dafür haben Christian Rossow und sein Team eine spezielle Fingerprint-Methode entwickelt. Sie verpassen jedem Angreifer einen persönlichen Fingerabdruck und können so herausfinden, wo sein Netzwerk steht. „Wir arbeiten mit den Landeskriminalämtern und mit Europol zusammen, um solche Angreifer aufzuspüren“, sagt der IT-Spezialist. „Früher waren die Angriffe völlig anonym, was eine Strafverfolgung nahezu unmöglich machte. Mittlerweile ist auch das FBI sehr an unseren Diensten interessiert.“
Für die Forscherinnen und Forscher bei CISPA ist das ein aktives und spannendes Forschungsfeld. „Unser Fingerabdruck hilft oft, aber eben nicht immer“, sagt Christian Rossow. „Deshalb suchen wir ständig nach neuen Möglichkeiten, die Verursacher solcher Massenangriffe zu identifizieren.“
Awareness ist das Schlüsselwort
Ob Massenangriffe oder gezielte Hacks, oft sind Unwissenheit, Leichtsinnigkeit oder Arglosigkeit von IT-Nutzern ein entscheidender Faktor zum Erfolg des Angriffs. Social Engineering nennen die IT-Experten die Versuche, sich Passworte und Zugänge zu Systemen zu erschleichen. „Einen manipulierten USB-Stick auf dem Firmenparkplatz liegen lassen, ist ein Klassiker, der wahrscheinlich auch heute noch funktioniert“, sagt Jörn Müller-Quade. Und natürlich gehören all die Pishing-Mails dazu, die den Nutzer in die Falle locken und zur Preisgabe seiner Passwörter bringen wollen. „Social Engineering ist ein riesiges Problem, weil wir Menschen nicht immer die richtige Einschätzung haben. Und genau aus diesem Grund erforscht bei uns am KIT die Professorin Melanie Volkamer mit ihrer Forschungsgruppe Security Usability Society (SECUSO) auch Awareness.“ Früher galt der Mensch vor dem Computer oft als Schwachstelle. Doch das, versichert der IT-Experte, sei eine altmodische Ansicht. „Man muss den Menschen vielmehr sensibilisieren“, meint er. „Man muss ihn dazu bringen, Unregelmäßigkeiten zu erkennen und seinen gesunden Menschenverstand einzusetzen.“ Menschen zu zwingen, sich wie eine Maschine zu verhalten, sei der falsche Ansatz. Kryptische Passwörter kann sich kaum jemand merken. Gut gemachte Passwortmanager und Zwei-Faktor-Authentifizierung seien hier nicht nur einfach zu nutzen, sondern würden auch die Sicherheit erhöhen. „User Blaming, also einfach alles auf den Nutzer schieben, das macht man heute nicht mehr“, fügt Jörn Müller Quade hinzu. „Denn man ist zu der Ansicht gekommen, dass eine schlechte Usability ein Designfehler ist und nicht die Schuld des Nutzers."
Was aber, wenn das System selbst Entscheidungen trifft, die wir nicht wirklich nachvollziehen können? Mit dem Einzug von Algorithmen aus dem Bereich der künstlichen Intelligenz (KI) ergeben sich plötzlich ganz neue Sicherheitsfragen. Welche das sind und wie man sie beantwortet, erforscht Hans-Martin Rieser am 2019 gegründeten Institut für KI-Sicherheit des Deutschen Zentrums für Luft- und Raumfahrt (DLR).
KI ist wie eine Blackbox
Ein Kringel macht noch keine Katze
„Wir verstehen zwar, wie ein neuronales Netzwerk aufgebaut ist und wie Deep Learning Ansätze prinzipiell funktionieren“, bringt der Experte für KI-Sicherheit das Problem auf den Punkt. „Doch die eigentliche Fachfunktion ist nicht mehr zu verstehen. Wir können also nicht sagen, wie ein Algorithmus aus den Trainingsdaten lernt und ob die Antwort, die er ja immer gibt, auch tatsächlich plausibel ist.“ Eine Computerentscheidung aber, über deren Zustandekommen man im Unklaren ist und der man nicht uneingeschränkt vertrauen kann, birgt ein Sicherheitsrisiko. Das gilt insbesondere dann, wenn die KI an kritischer Infrastruktur eingesetzt werden soll wie zum Beispiel der Steuerung von Energienetzen. Wie vertrauenswürdig KI-Entscheidungen sind, will Hans-Martin Rieser deshalb im Projekt SKIAS herausfinden.
„Wir haben die Vorbereitungen abgeschlossen und starten nun inhaltlich“, sagt der KI-Experte. „Dafür haben wir drei wichtige Ansatzpunkte identifiziert. Der erste: Eine KI ist nur so gut, wie die Daten, mit denen sie trainiert wird.“ Ein Beispiel: Für einen Versuch sollte eine KI lernen, auf Bildern Hunde von Katzen zu unterscheiden. Allerdings manipulierten die menschlichen Lehrer das Bildmaterial, mit dem sie ihre KI trainierten. Sie malten einen Kringel auf einen Großteil der Katzenbilder. Nachdem das Training abgeschlossen war, ließen sie die KI auf neues Bildmaterial los. „Wahrscheinlich hat sich die KI genau dieses Merkmal herausgepickt, denn sie hat jedes Bild mit einem Kringel als Katze klassifiziert.“
Eine Fehleinschätzung, die in anderen Fällen gravierende Folgen für die Sicherheit haben kann. Solche Irrtümer dürften nicht passieren, wenn eine KI anhand von Bilddaten das Modell der unbekannten Umgebung generieren soll – vielleicht sogar, um damit einen Roboter autonom über den Mars zu lenken. „Wie eine KI so etwas lernt, wollen wir mit einer Drohne herausfinden“, sagt Hans-Martin Rieser. Die lässt das SKIAS-Team in einer kontrollierten Umgebung fliegen und mit einer Kamera ihre Umwelt scannen. „Außerdem haben sie ein Referenzmodell der Umgebung erstellt. Mit diesem vergleichen wir anschließend das Modell, das die KI der Drohne geschaffen hat und finden hoffentlich Ansatzpunkte dafür, wie verlässlich das System lernt.“
Sein zweiter Ansatzpunkt für das Projekt SKIAS ist der Fakt, dass eine KI unabhängig von der Qualität der Daten eine Lösung ausgibt. „Das ist die Grundfunktion eines neuralen Netzes“, erklärt er. „Jede Eingabe geht durch die verschiedenen Schichten und generiert eine Ausgabe.“ Aber sind die Ergebnisse, die aus einem KI-System herauskommen, tatsächlich auch immer sinnvoll? „Um das zu verbessern, führen wir physikalische Regeln in das KI-System ein“, skizziert Hans-Martin Rieser sein Vorgehen. Damit gibt er der KI im Prinzip den Rahmen vor, in dem wir uns auch als Menschen bewegen. Denn die Gesetze der Physik können auch wir nicht beugen. „Damit können wir dann im Rahmen der physikalischen Gesetze sicherstellen, dass die Ergebnisse der KI tatsächlich auch plausibel sind – und auf diese Weise die Sicherheit erhöhen.“
Und es gibt ein drittes Betätigungsfeld, das der KI-Experte unter anderem im Rahmen der Cybersecurity angehen will. „Die Daten, die eine KI als Input erhält“, sagt er, „können fehlerbehaftet sein.“ Dazu muss man sich vor Augen halten, wie ein neuronales Netz mit Daten gefüttert wird. Soll die KI zum Beispiel Personen auf Überwachungsvideos identifizieren, erhält sie Bild in einem gängigen Grafikformat. „Die Umwandlung der Daten vom Kamerasensor zum fertigen Bild kann aber fehlerbehaftet sein“, erklärt Hans-Martin Rieser. „Das kommt einmal durch die Bildverarbeitungsalgorithmen selbst, kann aber auch absichtlich durch Angreifer erfolgen.“ Um eine KI zu verwirren, erklärt er weiter, würde zum Beispiel oft ein künstlich hinzugefügtes Bildrauschen ausreichen. „Deshalb wollen wir mit der KI möglichst nah an die Rohdaten herankommen“, fährt er fort. Dazu füttert er die KI mit den Rohsignalen direkt aus der Kamera, anstatt diese erst in ein Bild umzuwandeln und das Bild dieses dann über – möglicherweise anfällige – Leitungen zu versenden.
„Bei SKIAS wollen wir also gar nicht im Detail herausfinden, wie eine KI zu einem bestimmten Ergebnis kommt“, fasst er zusammen. „Das interessiert uns bei einem Menschen ja auch selten. Wir wollen einfach wissen, wie weit wir dem Ergebnis – egal ob von Mensch oder KI – vertrauen können.“
Wie wichtig solche Forschung schon heute ist, weiß auch Jörn Müller-Quade: „Wir als Mitglied in der Helmholtz-Gemeinschaft kümmern uns ja nicht nur um das Heute, sondern auch um das Wohl der Gesellschaft im Zeithorizont von zehn bis 15 Jahren“, sagt er. „Wenn man sich überlegt, dass kritische Infrastrukturen wie die Energienetze immer intelligenter werden, da müssen wir uns jetzt schon Gedanken darüber machen, wie wir sie in allen möglichen Richtungen sicher gestalten.“
Was ist ein Quantencomputer? Und wie kann Quantentechnologie Daten sichern?
Was ist ein Quantencomputer?
"Es ist schwierig, Sichherheit erst hinterher einzubauen" - Interview mit Anne Koziolek, Professorin für Softwaretechnik am Karlsruher Institut für Technologie (KIT)
Cybersecurity - Die unsichtbare Armee
Resonator-Podcast: Das CISPA in Saarbrücken
Leser:innenkommentare