Size matters: Wie groß ist wirklich groß? Big Data genauer betrachtet

big data size

Geht es nur um Größe, oder auch um’s Volumen? Wie groß muss das Datenvolumen sein, um als Big Data zu gelten? Mehrere hundert Gigabyte? Ein Terabyte? Ein Petabyte? Enttäuschung für alle, die eine genaue Antwort erwarten: konkret lässt sich das nicht bestimmen und somit ein für alle Mal klären, denn egal, wo eine Grenze festgesetzt werden würde, die entscheidet, ab wann Big Data wirklich “Big” ist – sie wäre nicht von langer Dauer. Was wir heute noch als groß bezeichnen, erscheint wenige Geräte-Generationen später schon gar nicht mehr als so groß!

Auch wenn das jetzt einige erschüttern mag: Es kommt eben doch auf die Größe an!

Big Data, ist die Größe wirklich so wichtig?!

Der Wert von großen Datenmengen ergibt sich aus ihrem Nutzen und der Effizienz, die sie bieten. Immer mehr Unternehmen stellen fest, dass erfasste und gespeicherte Daten eine wertvolle Quelle für reines Wissen ergeben. Denn, richtig ausgewertet, geben sie Aufschluss und kostbare Informationen über Produktion, Mitarbeiter, Vertrieb oder das Kundenverhalten.

Um die betriebseigenen Abläufe besser nachzuvollziehen und Entscheidungen zukünftig besser zu treffen, begannen Unternehmen große Datenmengen zu sammeln und auszuwerten. Um den schwammigen Begriff “Big Data” genauer festzulegen, wurden die die „vier Vs“ eingeführt :

  • Volume (Datenvolumen),
  • Velocity (Verarbeitungsgeschwindigkeit),
  • Variety (Datenvarietät) und
  • Veracity (Richtigkeit der Daten)

Drei dieser Faktoren gehen mit der tatsächlichen Menge von Daten einer. Aus diesem Grund scheint die Frage naheliegend, wie groß Datenmengen also sein müssen, um sie als ‚Big Data‘ bezeichnen zu können.

Wie groß ist wirklich groß?

Mehrere hundert Gigabyte? Ein Terabyte? Ein Petabyte? Es gibt keine eindeutige, universell gültige Festlegung, mit der die Frage ein für alle Mal geklärt ist

Es gibt unterschiedliche Gründe hierfür:

  • Am Anfang waren Speichermedien nicht so schnell, billig und leicht herzustellen wie heutzutage. Fortschritte hierzu konnten wir erst in den letzten 10 Jahren erzielen, sodass seitdem entsprechend mehr Daten gespeichert wurden.
  • Auch die Rolle der Prozessoren darf nicht außer Acht gelassen werden. Deren Performance spielt schließlich eine entscheidende Rolle, denn die gespeicherten Datenmengen erscheinen einem auf einmal nicht mehr als besonders groß, wenn ein Superrechner sehr große Datenmengen in kürzester Zeit verarbeiten kann

Größe ist in diesem Kontext folglich sehr relativ und nicht unbedingt das entscheidende Kriterium für „Big Data“. Big Data bezeichnet vielmehr Datenmengen, die

  • zu groß oder
  • zu komplex sind oder
  • sich zu schnell ändern oder
  • zu schwach strukturiert sind.

Sharing is Caring!

Kontakt
close slider

    Follow Us: