Vorbereiten / Erstellen von Funktionen für die Erkennung von Anomalien (Netzwerksicherheitsdaten)


9

Mein Ziel ist es, Netzwerkprotokolle (z. B. Apache, Syslog, Active Directory-Sicherheitsüberwachung usw.) mithilfe von Clustering / Anomalieerkennung für Intrusion Detection-Zwecke zu analysieren.

Aus den Protokollen habe ich viele Textfelder wie IP-Adresse, Benutzername, Hostname, Zielport, Quellport usw. (insgesamt 15-20 Felder). Ich weiß nicht, ob es einige Angriffe in den Protokollen gibt, und möchte die verdächtigsten Ereignisse (Ausreißer) hervorheben.

Normalerweise markiert die Anomalieerkennung die Punkte mit geringer Wahrscheinlichkeit / Häufigkeit als Anomalien. Die Hälfte der Protokollsätze enthält jedoch eine eindeutige Kombination von Feldern. Die Hälfte der Datensätze im Datensatz hat also die niedrigstmögliche Häufigkeit.

Wenn ich die auf Clustering basierende Anomalieerkennung verwende (z. B. Cluster suchen und dann Punkte auswählen, die weit von allen Clusterzentren entfernt sind), muss ich den Abstand zwischen verschiedenen Punkten ermitteln. Da ich 15 bis 20 Felder habe, wird es ein mehrdimensionaler Bereich sein, in dem die Dimensionen Benutzername, Port, IP-Adresse usw. sind. Die Mahalanobis-Entfernung konnte jedoch nur auf normalverteilte Merkmale angewendet werden. Dies bedeutet, dass es keine Möglichkeit gibt, den Abstand zwischen Datenpunkten zu ermitteln und Cluster zu erstellen ...

Stellen wir uns zum Beispiel vor, ich habe Benutzer Alice, Bob, Carol, Dave, Eve und Frank im Datensatz von 20 Datensätzen. Sie können die folgende Anzahl von Vorkommen in der Datenbank haben: 2,5,2,5,1,5. Wenn ich Benutzernamen einfach Zahlen zuordne, z

Alice --> 1
Bob --> 2
Carol --> 3
Dave --> 4
Eve --> 5
Frank --> 6

Dann sieht meine Wahrscheinlichkeitsverteilung für Benutzernamen wie folgt aus:

p (1) = 0,1, p (2) = 0,25, p (3) = 0,1, p (4) = 0,25, p (5) = 0,05, p (6) = 0,25

Dies ist natürlich keine Normalverteilung, und dies macht auch wenig Sinn, da ich Benutzernamen auf andere Weise zuordnen könnte ...

Eine einfache Zuordnung von Feldern wie Benutzername, Aktion, Portnummer, IP-Adresse usw. zu Nummern bringt also nichts.

Daher möchte ich fragen, wie die Textfelder verarbeitet / Merkmale normalerweise konstruiert werden, um eine unbeaufsichtigte Erkennung von Anomalien / Ausreißern zu ermöglichen.

EDIT: Datenstruktur.

Ich habe ungefähr 100 Spalten in der Datenbanktabelle, die Informationen von Active Directory-Ereignissen enthalten. Aus diesen 100 Spalten wähle ich die wichtigsten (aus meiner Sicht) aus: SubjectUser, TargetUser, SourceIP-Adresse, SourceHostName, SourcePort, Computer, DestinationIPaddress, DestinationHostName, DestinationPort, Aktion, Status, FilePath, EventID, WeekDay, DayTime.

Ereignisse sind Active Directory-Ereignisse, bei denen EventID definiert, was protokolliert wurde (z. B. Erstellung eines Kerberos-Tickets, Benutzeranmeldung, Benutzerabmeldung usw.).

Das Datenbeispiel sieht folgendermaßen aus:

+ --------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- - +
| ID | SubjectUser | TargetUser | SourceIPaddress | SourceHostName | SourcePort | Computer | DestinationIPaddress | DestinationHostName | DestinationPort | Aktion | Status | FilePath | EventID | WeekDay | DayTime |
+ --------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- - +
| 171390673 |? |? |? |? |? | domaincontroller1.domain.com | 1.1.1.1 | domaincontroller1.domain.com |? | / Authentifizierung / Überprüfen | / Erfolg |? | 4624 | 1 | 61293 |
+ --------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- - +
| 173348232 |? |? |? |? |? | domaincontroller2.domain.com | 2.2.2.2 | domaincontroller2.domain.com |? | / Authentifizierung / Überprüfen | / Erfolg |? | 4624 | 1 | 61293 |
+ --------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- - +
| 180176916 |? |? |? |? |? | domaincontroller2.domain.com | 2.2.2.2 | domaincontroller2.domain.com |? | / Authentifizierung / Überprüfen | / Erfolg |? | 4624 | 1 | 61293 |
+ --------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- - +
| 144144725 |? | John.Doe | 3.3.3.3 | domaincontroller3.domain.com | 2407 | domaincontroller3.domain.com | 3.3.3.4 | domaincontroller3.domain.com |? | / Authentifizierung / Überprüfen | / Erfolg |? | 4624 | 3 | 12345 |
+ --------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- -------------------------------------------------- - +

Insgesamt habe ich ungefähr 150 Millionen Veranstaltungen. Bei verschiedenen Ereignissen sind unterschiedliche Felder ausgefüllt, und nicht alle Ereignisse beziehen sich auf die Benutzeranmeldung / -abmeldung.


"Die Mahalanobis-Distanz konnte jedoch nur auf normalverteilte Merkmale angewendet werden." Eigentlich elliptisch geformt. Können Sie die ersten Zeilen Ihres Datensatzes veröffentlichen (oder einige gefälschte Zahlen, die jedoch dieselben Funktionen wie das Original haben)?
user603

Ich gehe davon aus, dass elliptisch geformte Mittel das Produkt zweier normalverteilter Merkmale mit unterschiedlichen Mittel- und Standardabweichungen sind, aber immer noch normalverteilt.
Andrey Sapegin

Nein, elliptisch geformte Mittel, die wie der Schatten eines Fußballs in 2D, eines Fußballs in 3D und im Allgemeinen eines D-dimensionalen Fußballs im D-dimensionalen Raum geformt sind.
user603

Aus Neugier. Könnten Sie einige der Daten teilen / mit welchem ​​Datensatz arbeiten Sie? Ist es ein öffentliches / akademisches Forschungsset?
Sabalaba

Leider ist dies kein öffentlicher Datensatz und ich kann ihn nicht teilen. Es sollte jedoch einen berühmten KDDCup 1999-Datensatz oder einen Scan34-Datensatz von Honeynet ( old.honeynet.org/scans/scan34 ) geben. Beide Datensätze verfügen über Protokolle (kein Netzwerkverkehr) zur Analyse (Apache, Snort, Syslog usw.). In dem Datensatz, den ich habe, sind die meisten Protokolle Active Directory-Protokolle. Ich bin nicht sicher, ob öffentliche AD / Windows-Ereignisse zur Analyse verfügbar sind (früher habe ich ein selbst generiertes Dataset verwendet, da das echte nicht vorhanden war). Außerdem ist mein Datensatz sehr groß (150 Mio. Datensätze).
Andrey Sapegin

Antworten:


2

Ich bin definitiv kein Experte für die Erkennung von Anomalien . Es ist jedoch eine interessante Gegend und hier sind meine zwei Cent. Betrachten Sie zunächst Ihren Hinweis, dass "Mahalanobis-Abstand nur auf normalverteilte Features angewendet werden kann". Ich bin auf einige Untersuchungen gestoßen, die argumentieren, dass es immer noch möglich ist , diese Metrik in Fällen von nicht normalen Daten zu verwenden. Überzeugen Sie sich selbst von diesem Dokument und diesem technischen Bericht .

Ich hoffe auch, dass Sie die folgenden Ressourcen zur unbeaufsichtigten Anomalieerkennung (AD) im Kontext der IT-Netzwerksicherheit mit verschiedenen Ansätzen und Methoden nützlich finden : In diesem Dokument wird ein geometrischer Rahmen für unbeaufsichtigte AD vorgestellt. Dieses Papier verwendet einen dichtebasierten und einen gitterbasierten Clustering- Ansatz. Diese Präsentationsfolien erwähnen die Verwendung selbstorganisierender Karten für AD.

Abschließend empfehle ich Ihnen, einen Blick auf meine folgenden Antworten zu werfen, die meines Erachtens für das Thema relevant sind und daher hilfreich sein könnten: Antwort auf Clustering-Ansätze , Antwort auf nicht entfernungsbasiertes Clustering und Antwort auf Softwareoptionen für AD .


1
Vielen Dank für die Links, sie sind sehr nützlich. (1) Das erste Papier, das Sie erwähnt haben, ist sehr interessant. Es scheint möglich zu sein, die Verteilung in Normal umzuwandeln, um später die Mahalanobis-Distanz anzuwenden. Ich werde versuchen, mich darauf einzulassen. (2) Wissen Sie, ob es andere Ansätze gibt, z. B. einige Ähnlichkeitsmaße wie die Cousine-Entfernung, die nicht auf Entfernungen angewendet werden? (3) Die von Ihnen erwähnten Präsentationsfolien konzentrieren sich jedoch auf die Netzwerkverkehrspakete und nicht auf die Protokolle.
Andrey Sapegin

1
In Bezug auf andere Ansätze dachte ich über folgende 2 nach: (1) SVM einer Klasse könnte eine Korrelation zwischen Merkmalen herausfinden, wenn ein hochpolinomiales Modell verwendet wird; (2) Bedrohungsprotokollzeilen als Sätze verwenden und Cousine-Ähnlichkeit verwenden, um sie zu gruppieren / zu gruppieren. Das erste habe ich bereits versucht zu implementieren, aber es läuft bereits mehr als eine Woche auf 1 CPU (ich trainiere zuerst ein Modell für die erste Datenhälfte und wende es auf das zweite an. Dann umgekehrt). Der zweite Ansatz impliziert einen hochdimensionalen Raum (z. B. wird jeder unterschiedliche Wert des Benutzernamens ein Merkmal sein).
Andrey Sapegin

1
@AndreySapegin: Wenn die Ergebnisse Ihrer aktuellen Versuche nicht gut genug sind, können Sie einige andere Ansätze ausprobieren, die in den von mir genannten Artikeln erwähnt werden. Das war die Idee. Eine weitere Sache - probieren Sie die Open Source ML-Software GraphLab aus (einige davon sind jetzt als Dato gekennzeichnet): dato.com/products/create/open_source.html . Die GraphLab-Software ist leistungsstark und nicht nur für Prozessorkerne, sondern auch für Prozessoren und sogar Maschinen sehr skalierbar.
Aleksandr Blekh

1
@AndreySapegin: Ein Artikel meines Universitätskollegen ist gerade in meinem ResearchGate-Stream aufgetaucht. Ich denke, es könnte für Sie sehr hilfreich sein (verwendet den ANN-Ansatz, um Eindringlinge zu erkennen - über die coole Encog ML-Bibliothek, deren Schöpfer und Hauptverantwortlicher er ist - Encog ist auch über Multicore und GPU skalierbar). Hier ist das Papier: researchgate.net/profile/Jeff_Heaton/publication/… . Hier sind Informationen zu Encog: heatonresearch.com/encog .
Aleksandr Blekh

1
An alle, die meine Antwort mit dem Kopfgeld ausgezeichnet haben: Ich schätze Ihre Großzügigkeit und meine Bemühungen um qualitativ hochwertige Antworten.
Aleksandr Blekh

3

Zunächst denke ich, dass es einige Dinge gibt, mit denen Sie sich möglicherweise abfinden müssen.

Eine harte Einschränkung, die ich bei diesem Problem sehe, ist, dass Sie wahrscheinlich darauf vorbereitet sein sollten, eine ziemlich hohe Falsch-Positiv-Rate zu haben. Soweit ich weiß, ist die Basisrate von Datensätzen, die Teil einer Netzwerkanomalie sind, ziemlich niedrig (Zitieren erforderlich). Nennen wir es aus Gründen der Argumentation 1000: 1-Gewinnchancen. Selbst wenn Sie ein Muster beobachten, das 100-mal wahrscheinlicher ist, wenn der Datensatz ein Eingriff ist, als wenn es legitim ist, sagt die Bayes-Regel, dass die hinteren Chancen 10: 1 sind, dass der Verkehr immer noch legitim ist.

Das andere Problem ist, dass einige Eingriffe selbst im Prinzip schwer zu erkennen sind . Wenn mich zum Beispiel jemand dazu gebracht hätte, ihnen meinen Computer zu geben, und sie sich dann bei diesem Dienst angemeldet und eine streng geheime Datei heruntergeladen hätten, an der ich gearbeitet hatte, wäre dies ziemlich schwer zu finden. Grundsätzlich kann ein ausreichend entschlossener Angreifer sein aufdringliches Verhalten fast willkürlich dem normalen Verhalten des Systems nahe bringen.

Darüber hinaus sind Ihre Gegner intelligente und keine statistischen Prozesse. Wenn Sie also ein Muster erkennen und es schließen, reagieren sie möglicherweise einfach, indem sie diesem Muster nicht mehr folgen. Aus diesem Grund sehen Sie beispielsweise viele Spam-Nachrichten mit Leerzeichen zwischen allen Buchstaben (die Ihnen " V I A G R A" oder was auch immer bieten ). Spamfilter stellten fest, dass die Zeichenfolge "viagra" Spam war, sodass die Angreifer gerade anfingen, etwas anderes zu tun.

Aus diesem Grund denke ich, dass es sich lohnt, ziemlich genau darüber nachzudenken, welche Arten von Eingriffen Ihrer Meinung nach die Mühe wert sind, erkannt zu werden. Hier gibt es sicherlich niedrig hängende Früchte. Lassen Sie also nicht zu, dass das Perfekte der Feind des Guten ist, und versuchen Sie, einen Algorithmus zu entwickeln, der alle Eingriffe erkennt.


Abgesehen davon, lassen Sie uns über die tief hängenden Früchte sprechen. Ich denke, es könnte für Sie produktiv sein, Ihre Analyseeinheit von einzelnen Datensätzen auf eine Gruppe von Datensätzen zu verlagern .

Sie haben beispielsweise gesagt, dass die Hälfte aller Datensätze eindeutige Feldkombinationen enthält. Vermutlich werden beispielsweise die meisten Quell-IPs in mehr als einem Datensatz angezeigt - es sind die anderen Felder in der Anforderung, die sich ändern und die Kombination eindeutig machen. Wenn Sie die Anforderungen nach IP gruppieren, können Sie Fragen stellen wie:

  • Scheinen sich einige IPs als ungewöhnlich viele Benutzer (oder ungewöhnlich wenige) zu authentifizieren?
  • Haben einige IPs eine ungewöhnlich große Anzahl von Authentifizierungsfehlern?
  • Haben einige IPs ein ungewöhnliches Muster von Zugriffszeiten (z. B. viel Aktivität um 3 Uhr morgens in ihrer Zeitzone oder Anfragen alle 1 Sekunde im Laufe des Tages)?

Sie können ähnliche Aktionen für andere Gruppierungen ausführen, z. B. Benutzername:

  • Authentifiziert sich dieser Benutzer von einem anderen Computer aus, wenn er zuvor für alle Anforderungen denselben Computer verwendet hat?
  • Berührt dieser Benutzer plötzlich einen Teil des Dateisystems, den er noch nie berührt hat?

Ich weiß nicht von irgendwelchen off-the-shelf Klassifizierer , die besonders dazu geeignet zu sein scheinen, weil das Potenzial Verhalten Ihrer Benutzer wird so verändert, und Sie sind wahrscheinlich vor allem in interessiert Veränderungen im Verhalten im Laufe der Zeit. Das bedeutet, dass Sie wahrscheinlich eine Art Modell erstellen möchten, was jeder Benutzer / jede IP / was auch immer in Zukunft tun wird, und Abweichungen von diesem Modell kennzeichnen möchten. Aber das ist ein ziemlich intensiver Prozess, wenn Ihre Benutzer unterschiedliche Verhaltensmuster haben!

Aufgrund dieser Schwierigkeit denke ich, dass es im Moment produktiver sein könnte, die oben beschriebene Art der Explorationsmodusanalyse durchzuführen. Das wird Sie wahrscheinlich darüber informieren, welche Arten von Mustern am interessantesten sind, und dann können Sie ausgefallene statistische Algorithmen verwenden, um diese Muster zu erkennen.


2
Vielen Dank für Ihre Antwort, es ist ein guter Punkt. Wie ich verstanden habe, bieten Sie an, sich auf eine einfachere Analyse als die Erkennung von Anomalien zu konzentrieren. Aus technischer (Industrie-) Sicht haben Sie Recht. Ich recherchiere jedoch und möchte mich auf die Analyse des maschinellen Lernens konzentrieren. Die von Ihnen angebotene abfragebasierte Analyse, die wir bereits durchgeführt haben (möglicherweise nicht genau identisch mit den von Ihnen angebotenen Abfragen, aber ähnlich) ... Ein weiteres Argument dafür ist, dass viele Unternehmen derzeit versuchen, zusätzlich zu "normal" eine Anomalieerkennung durchzuführen ( einfacher, aber immer noch erfüllt) Fragen und Regeln ...
Andrey Sapegin

2

Ich denke, dass Sie in erster Linie einen Datensatz benötigen, der Daten für einen Zeitraum ohne Angriffe aufzeichnet . Dieser Datensatz sollte die Variationen erfassen, die einem System inhärent sind, das sich normal verhält. Ich möchte betonen, dass es nicht um einen kommentierten Datensatz geht.

Als nächstes würde ich versuchen, alle (oder Teilmengen) von Metriken in einer zu kombinieren. Diese neue Metrik sollte das Ausmaß der "Überraschung" widerspiegeln. Zum Beispiel bedeutet ein niedriger Wert, dass das System normal läuft, ein hoher Wert Peak / Plateau bedeutet, dass es eine schnelle Änderung gibt. Hier denke ich an CUSUM- oder Shewhart-Chart-Style-Charts.

Können Sie einige Beispiele für die verfügbaren Daten angeben? Sind es hauptsächlich Zeichenfolgen, Zahlen, 1/0 Indikatoren?


1

Eine Möglichkeit besteht darin, ein Bayes'sches Netzwerk zwischen den Funktionen zu lernen, wenn einige Hintergrunddaten ohne Angriffe vorliegen. Das Erlernen eines Bayes'schen Netzwerks ist nützlich, da dadurch die bedingte Unabhängigkeit zwischen Funktionen hergestellt wird. Daher haben Sie es nicht mit jeder möglichen Kombination von Funktionen zu tun. Wenn beispielsweise Merkmal A B und C und Merkmale B und C zusammen D betreffen, lernen Sie nur ein Modell dafür, wie A B beeinflusst, wie C beeinflusst wird und wie B und C D gemeinsam beeinflussen. Dieses Modell erfordert weitaus weniger Parameter als die gesamte Wahrscheinlichkeitsverteilung und ist der Hauptgrund, warum Bayes'sche Netzwerke verwendet werden, anstatt nur die gesamte gemeinsame Wahrscheinlichkeitsverteilung zu speichern. Um die Anomalie bei einem Bayes'schen Netzwerk zu testen, berechnen Sie die Wahrscheinlichkeit eines eingehenden Datenpunkts mithilfe des erlernten Bayes'schen Netzwerkmodells. Wenn die Wahrscheinlichkeit sehr gering ist,


Das Problem ist, dass es äußerst kompliziert ist, ein Datenmuster ohne Angriffe zu erhalten. Oft weiß niemand, ob der Datensatz Angriffe enthält.
Andrey Sapegin

0

Ich fand die Antwort von Ben Kuhn pragmatisch und aufschlussreich.

Jetzt umfasst mein eigener Hintergrund die Bereiche Textklassifizierung, Expertensysteme, Clustering und Sicherheit. Vor diesem Hintergrund würde ich gerne glauben, dass ich dem Gespräch etwas hinzufügen könnte. Die vorherigen Aussagen von Ben Kuhn heben jedoch hervor, dass einfache Ansätze viele Fehlalarme hervorrufen können. Wenn IT-Mitarbeiter mit vielen Fehlalarmen konfrontiert werden, "schalten" sie sich normalerweise aus, weil sie einfach nicht die Zeit haben, ständig Falsch-Positive zu verfolgen.

Was tun?

Sicherlich könnten Protokolle mit Angriffen hilfreich sein, aber dann haben wir einen Catch-22, es sei denn, Unternehmen teilen irgendwie Angriffsdaten. Während einige Silicon Valley-Start-ups möglicherweise eine solche Bedrohungsverteilung verfolgen, was könnten wir sonst noch tun?

Ein möglicher Ansatz besteht darin, eine Simulation des Netzwerks zu erstellen und dann einen Weg zu finden, um Angriffe gegen die Simulation zu generieren. Angenommen, wir erstellen eine Simulation, bei der die schwarzen Hüte (auch simuliert) den weißen Hüten nicht im Voraus bekannt sind. Angesichts dieser Angriffe können wir dann versuchen, Algorithmen zu erstellen, die diese Angriffe erkennen sollen. Wenn die schwarzen Hüte unabhängig von den weißen Hüten funktionieren, haben wir einen echten Kampf, der sich abspielen wird. Wenn die Angreifer in das System eindringen oder unentdeckt bleiben, sind die weißen Hüte bis zu einem gewissen Grad ausgefallen.

Man könnte sogar eine Anreizstruktur haben, wenn die Sicherheitsanalysten des Black-Hat-Teams für ihre Erfolge (Reithosen oder unentdeckte Angriffe) belohnt werden. In ähnlicher Weise wird die Gruppe, die die weißen Hüte umfasst, für das Anhalten von Reithosen und / oder das Erkennen von Angriffen belohnt.

An diesem Arrangement ist nichts Perfektes. Offensichtlich könnten echte schwarze Hüte die Talente des "freundlichen" schwarzen Hut-Teams übertreffen. Trotzdem scheint es mir als Person mit einer angemessenen Datenanalyse sehr schwierig zu sein, den Erfolg von weißen Hüten zu quantifizieren, ohne die schwarzen Hüte besser zu verstehen. Fazit ist dies. Wenn wir nicht wissen können, was echte schwarze Hüte tun, sind freundliche schwarze Hüte das nächstbeste.

Ich habe auch eine ziemlich ungewöhnliche Idee. Angenommen, zusätzlich zu den freundlichen schwarzen und weißen Hüten gibt es ein Team mit grauen Hüten. Was bedeutet es, ein grauer Hut zu sein? Die Idee ist einfach. Graue Hüte dürfen sehen, was die freundlichen schwarzen Hüte und die weißen Hüte tun. Aber warum?

Nehmen wir an, dass die freundliche schwarze Hüte Start - Attacken Ansätze A, B und C, und die weißen Hüte nie entdecken jeder dieser drei Ansätze. Nun, die grauen Hüte können sehen, was sowohl die freundlichen schwarzen als auch die weißen Hüte tun, und sie versuchen zu überlegen, welche Prinzipien verwendet werden könnten, um diese unentdeckten Angriffe zu entdecken. Wenn der graue Hut solche Prinzipien findet, kann das graue Hut-Team diese Prinzipien mit dem weißen Hut-Team teilen, ohne die genauen Angriffe im Detail zu beschreiben.

Die Hoffnung ist, dass diese "Hinweise" des Teams mit dem grauen Hut dem Team mit dem weißen Hut einen Schub in die richtige Richtung geben, ohne zu viel preiszugeben.

Im Nachhinein entschuldige ich mich, wenn es in meiner Antwort wirklich nicht um bestimmte Techniken geht. Offensichtlich geht es in meiner Antwort nicht um bestimmte Techniken. Nach meiner Erfahrung scheitern jedoch viele Probleme beim maschinellen Lernen - einschließlich der Sicherheitsprobleme - häufig daran, dass die Daten unzureichend sind. Dieser Ansatz, bei dem weiße, graue und schwarze Hüte verwendet werden, kann dazu beitragen, Daten zu erstellen, mit denen ein Sicherheitsunternehmen (oder IT-Mitarbeiter) nicht nur die Wirksamkeit seiner Abwehrmaßnahmen quantifizieren, sondern auch eine Organisationsstruktur bereitstellen kann, die das Team der weißen Hüte vorantreibt ihre Verteidigung und ihre Überwachung schrittweise zu verbessern.

Ich habe wirklich keine Ahnung, ob der von mir vorgeschlagene Ansatz originell ist. Ich habe noch nie von grauen Hüten gehört, aber ich denke tatsächlich, dass die Rolle grauer Hüte entscheidend sein könnte, um das weiße Team voranzutreiben, ohne zu viel preiszugeben.


Hinweis: Meine Verwendung des Begriffs "grauer Hut" ist hier nicht Standard. Siehe http://www.howtogeek.com/157460/hacker-hat-colors-explained-black-hats-white-hats-and-gray-hats/ . Also sollte stattdessen ein anderer Begriff verwendet werden, vielleicht "gestreifter Hut".

Trotzdem bleibt die Idee dieselbe: Ein gestreifter Hut kann helfen, zwischen der Arbeit freundlicher schwarzer Hüte und Verteidiger (weiße Hüte) zu vermitteln, so dass bestimmte Ideen und Hinweise mit den weißen Hüten vernünftig geteilt werden können.


1
Es scheint , dass Sie vielleicht aus Versehen ein zweites Konto angelegt haben - siehe hier , wie sie zu verschmelzen. Auf diese Weise können Sie Ihre eigenen Beiträge bearbeiten.
Silverfish

0

Seit ich die ursprüngliche Frage gestellt habe, habe ich viel zu diesem Thema recherchiert und kann nun meine Ergebnisse als Antwort liefern.

Zunächst entwickeln wir in unserem Labor ein SIEM-System, das Anomalieerkennungsalgorithmen verwendet. Die Beschreibung des Systems und der Algorithmen finden Sie in meinem Artikel Auf dem Weg zu einem System zur komplexen Analyse von Sicherheitsereignissen in großen Netzwerken

Außerdem habe ich in meiner Antwort auf eine ähnliche Frage zu Cross Validated eine kurze Zusammenfassung zum Umgang mit solchen Daten geschrieben

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.