Ist dort eines?
Alle Definitionen, die ich finden kann, beschreiben die Größe, Komplexität / Vielfalt oder Geschwindigkeit der Daten.
Die Wikipedia-Definition ist die einzige, die ich mit einer tatsächlichen Nummer gefunden habe
Big Data-Größen sind ein sich ständig änderndes Ziel. Ab 2012 reichen sie von einigen Dutzend Terabyte bis zu vielen Petabyte Daten in einem einzigen Datensatz.
Dies widerspricht jedoch anscheinend der MIKE2.0-Definition , auf die im nächsten Absatz Bezug genommen wird. Sie besagt, dass "große" Daten klein sein können und dass 100.000 Sensoren in einem Flugzeug, das nur 3 GB Daten erzeugt, als groß angesehen werden können.
IBM trotz der Aussage, dass:
Big Data ist mehr als nur eine Frage der Größe.
haben die Größe in ihrer Definition hervorgehoben .
O'Reilly hat auch betont "volume, velocity and variety"
. Obwohl gut erklärt und ausführlicher, scheint die Definition eine Neuauflage der anderen zu sein - oder natürlich umgekehrt.
Ich denke , dass ein Computer Weekly Artikel Titel fasst eine Reihe von Artikeln ziemlich gut „Was große Daten sind und wie sie verwendet werden , um Wettbewerbsvorteile zu erlangen“ .
Aber ZDNet gewinnt ab 2012 mit :
„Big Data“ ist ein Schlagwort, das aus der Hochleistungsrechnernische des IT-Marktes sprudelt ... Wenn man sich die Präsentationen von zehn Technologieanbietern ansieht, werden wahrscheinlich fünfzehn oder so unterschiedliche Definitionen herauskommen. Jede Definition stützt natürlich tendenziell den Bedarf an Produkten und Dienstleistungen dieses Lieferanten. Stell dir das vor.
Grundsätzlich ist "Big Data" in irgendeiner Form "groß".
Was ist "groß"? Ist es zum gegenwärtigen Zeitpunkt quantifizierbar?
Wenn "groß" nicht quantifizierbar ist, gibt es eine Definition, die sich nicht nur auf Allgemeingültigkeiten stützt?