Ich habe gerade erst angefangen, mir Maschinelles Lernen und Datenanalyse beizubringen, und stoße auf eine Mauer, in der es darum geht, große Datenmengen zu erstellen und abzufragen. Ich möchte Daten, die ich in meinem beruflichen und privaten Leben gesammelt habe, aufgreifen und analysieren, bin mir jedoch nicht sicher, wie ich am besten vorgehen kann:
Wie soll ich diese Daten speichern? Excel? SQL? ??
Was ist eine gute Möglichkeit für einen Anfänger, diese Daten zu analysieren? Ich bin ein professioneller Computerprogrammierer, daher besteht die Komplexität nicht darin, Programme zu schreiben, sondern ist mehr oder weniger spezifisch für den Bereich der Datenanalyse.
EDIT: Entschuldigung für meine Unbestimmtheit, wenn Sie zum ersten Mal etwas lernen, ist es schwer zu wissen, was Sie nicht wissen, weißt du? ;)
Mein Ziel ist es jedoch, dies auf zwei Hauptthemen anzuwenden:
Software-Team-Metriken (Agile Geschwindigkeit, Quantifizierung des Risikos, Wahrscheinlichkeit einer erfolgreich abgeschlossenen Iteration bei gegebener Anzahl von Story-Punkten)
Maschinelles Lernen (z. B. Systemausnahmen sind in einem bestimmten Satz von Modulen aufgetreten. Wie hoch ist die Wahrscheinlichkeit, dass ein Modul eine Ausnahme im Feld auslöst, wie hoch sind die Kosten, und was können mir die Daten über Schlüsselmodule zur Verbesserung sagen?) Ich finde das Beste für mein Geld, sage voraus, welchen Teil des Systems der Benutzer als Nächstes verwenden möchte, um mit dem Laden von Daten zu beginnen, usw.).