Die Globale Datenmenge explodiert: Blüht uns der Dateninfarkt?

Juni 26, 2022 Rupert Hierzer

Als ich mich das letzte Mal 2017 mit dem weltweit steil ansteigenden Speicherbedarf beschäftigte, wurden für das Jahr 2020 ehrfurchtsgebietende 44 Zetabyte prognostiziert. Heute, fünf Jahre später hat die Realität diese Fabelzahl dramatisch in den Schatten gestellt. Nicht nur wurde dieses Speichervolumen bereits ein Jahr vorher erreicht, sondern fiel im Referenzjahr 2020 auch noch um ein Drittel höher aus als es sich der optimistischste Speicherhersteller hätte träumen lassen. Ganze 64 Zettabytes an Daten wurden 2020 erzeugt, verarbeitet, verteilt und konsumiert.

Die Pandemie fungiert als Brandbeschleuniger

Corona hat uns ins Home-Office verbannt und damit dafür gesorgt, dass in einer noch nie dagewesenen Weise gestreamt, gechattet und video-conferenced wurde.

Experten schätzen, dass sich das Datenvolumen bis 2025 auf über 180 Zettabytes verdreifachen wird. Nur um diese Entwicklung greifbarer zu machen: 2010 wurden im digitalen Universum insgesamt 1,2 Zettabytes an Daten produziert. Bis 2025 soll nun das jährliche Datenvolumen auf über 180 Zettabytes[1] anwachsen. Noch plastischer ausgedrückt: Würde man diese Datenmenge auf iPads (iPad Air mit 128 GB Speicherkapazität und 0,8 cm Bauhöhe) speichern und stapeln, würde der Stapel 2025 knapp dreißigmal der Entfernung Erde-Mond entsprechen. Damit hat sich das gesamte Datenvolumen des digitalen Universums innerhalb einer Generation um das 150-fache vergrößert. Eine unvorstellbare Entwicklung. Es steht zu befürchten, dass der weltweite Datenhunger diese Entwicklung noch zusehends beschleunigen wird.

Für Menschen sind diese Datenmengen bereits heute nicht mehr beherrschbar

Hinter diesen Speichermengen steht eine schwindelerregende Anzahl von Dokumenten, E-Mails, Informationen und Daten, die im Administrationsalltag von Unternehmen und ihren Mitarbeitern verarbeitet werden müssen.

Bereits heute verbringen Mitarbeiter bis zu einem Tag pro Woche allein mit dem Suchen von Informationen[2] (Daten, Dokumente). Dieses Bild hat sich seit 2010 kaum verändert. Technologische Verbesserungen im Büroalltag wurden immer wieder durch das rasante Datenwachstum egalisiert.

In einer kürzlich veröffentlichten US-Studie[3] bestätigt jeder zweite Büromitarbeiter bereits jetzt mehr Zeit für das Suchen von Dokumenten und Dateien aufwenden zu müssen als für die Bearbeitung von E-Mails und Nachrichten.

Der damit einhergehende Produktivitätsverlust und die weiterhin rasant ansteigende Daten- und Dokumenten-indizierte Verarbeitungskomplexität rücken Verwaltungsprozesse immer häufiger in den Mittelpunkt von Optimierungsprojekten.

Es blüht der Dateninfarkt

Unglaublich, aber wahr. Viele Unternehmen verarbeiten einen Großteil ihrer Daten immer noch manuell. Eine Studie des McKinsey Institutes hält 50% der Prozessverarbeitungen in Unternehmen für automatisierbar, eine Kofax-Studie[4] geht hier sogar noch weiter: Drei Viertel der Befragten halten 60% der Daten-Verarbeitungsschritte für automatisierbar, ein Fünftel geht sogar von 80% aus.

Viele Bestandsprozesse sehen sich einer stetig wachsenden Bearbeitungskomplexität ausgesetzt: Kleinere Losgrößen, eine Zunahme von Einzelkomponenten in Produkten, eine steigende Anzahl von internen und externen Datenquellen und Kommunikationskanälen, um nur einige der Komplexitätstreiber zu nennen.

Darunter leiden Bearbeitungs- und Durchlaufzeiten. Der echte Wertschöpfungsanteil an der aufgewendeten Arbeitszeit sinkt zunehmend, die Fehlerrate in der Bearbeitung steigt. Für Firmen eine Worst-Case Entwicklung.

Unternehmen sind unvorbereitet

Unternehmen sind sich dieser Probleme sehr wohl bewusst. Umso erstaunlicher, dass viele Organisationen zögern ihre Prozesse zu automatisieren oder dort den großen Hammer verwenden wo eine Pinzette reichen würde. Großprojekte wie SAP-Hanna, SalesForce oder e-Commerce Einführungen lösen die aktuellen Prozessprobleme nicht sondern verschärfen sie zunächst nur. Die Einbindung der Bestandprozesse, in solche langjährigen Großprojekte, vor dem Kontext der Unternehmensrealität führt oftmals zu unzähligen Workarounds und Zusatzaufgaben die weitere manuellen Verarbeitungsschritte nach sich ziehen.

Fazit

Bevor Unternehmen zum Hammer greifen, sollten im Vorfeld Prozesse analysiert und optimiert werden. In vielen Fällen lassen sich mit dem Einsatz einfacher Innovationen große Erfolge erzielen. Beispielsweise lassen sich mittels Robotic Process Automation (RPA) bereits viele manuelle Arbeitsschritte automatisieren. Arbeitsaufwände, Durchlaufzeiten und Fehlerquoten können dadurch teilweise dramatisch reduziert werden. In nächster Zeit wird auch IPA (Intelligent Process Automation), d.h. der Einsatz KI-gestützter Prozessautomatisierung eine immer größere Rolle spielen. IPA-Architekturen kommen u.a. immer häufiger in der Verarbeitung, Verwaltung und Strukturierung von Informationen und Daten zur Anwendung.

Erst wenn ein großer Teil der Prozesse automatisiert abläuft, entsprechend schnelle Durchlaufzeiten und geringe Fehlerquoten vorweisen kann, sollten Unternehmen darüber nachdenken den großen Hammer zu schwingen.

[1] Zum besseren Verständnis: 189 Zettabytes entsprechen 180 Billionen Gigabytes oder ausgeschrieben die Zahl 180 mit 21 Nullen, also 180.000.000.000.000.000.000.000 Bytes.

  Geschrieben von

In seiner Arbeit schätzt Rupert vor allem das notwendige Brückenbauen: Eine Verbindung zwischen Altem und Neuem herzustellen, Veränderung zu initiieren und Menschen auf diesem Weg zu begleiten. Für ihn ist Entwicklung die aufrichtigste Form der Beratung. Rupert ist davon überzeugt, dass Veränderung notwendig ist, um Wachstum und Fortschritt zu ermöglichen. Seine Arbeit dreht sich darum, Menschen zu ermutigen, alte Denkmuster zu überwinden und neue Wege zu beschreiten.

Success message!
Warning message!
Error message!