publish-industry Verlag GmbH

Der Großteil der Daten in Unternehmen verbleibt ungenutzt auf den Festplatten und kostet jährlich immense Speicherressourcen.

Bild: Pixabay, LoveYouAll

Kolumne über Dark Data Datenmüll versaut CO2-Bilanz

15.06.2020

Im vorigen Monat habe ich eine Lanze für die Langzeit-Datenspeicherung gebrochen. Doch diesmal möchte ich das Thema von der anderen Seite her betrachten: Wie viele der gespeicherten Daten sind ungenutzt, Müll, „Dark Data“?

Sponsored Content

Wir könnten ja der Ansicht sein, dass die Unmengen von nutzlosen, veralteten, fehlerhaften, redundanten oder schlicht vergessenen Daten auf allerlei Speichern, Servern, in Rechenzentren und in der Cloud keinen unmittelbaren Schaden anrichten. Per se wohl nicht. Allerdings, so hat eine Untersuchung von True Global Intelligence in Verbindung mit Splun festgestellt: Das unstrukturierte Horten von Datenmüll erzeugt alljährlich durch Bindung von Speicherressourcen und Energie nicht nur hohe Kosten, sondern pumpt auch mehrere Millionen Tonnen CO2 unnötig in die Atmosphäre.

Das geht jeden was an. Fangen wir doch ganz klein an, nämlich bei uns selbst: Die unzähligen Fotos, Mails, Dateien und Videos auf dem Handy sind, verstärkt und vervielfacht durch soziale Medien, bereits in meinem Zwei-Personen-Haushalt oft mehrfach vorhanden: auch im zweiten Smartphone, in zwei PCs, auf Festplatten oder USB-Sticks sowie in der Cloud. Wie oft schaut man das alles denn noch an? Das ist alles andere als irrelevant: Weltweit gibt es mehr Mobilfunkverträge als Menschen, rund acht Milliarden!

Was ist wichtig, was kann weg?

Meist kennen Unternehmen bei mehr als der Hälfte (bis 75 Prozent) ihrer Daten weder den Inhalt noch den Wert. Die globale Gesamtmenge an Daten soll sich laut Statista von 33 Zetabyte (ZB, 1.021 Byte) im Jahre 2018 bereits 2025 mehr als verfünffachen. Dann würde der Anteil der Dark Data viermal so hoch liegen wie heute, bei rund 90 ZB.

Darunter versteckt sich mit Sicherheit viel Wertvolles, das indessen durch fehlendes Know-how, fehlende Zeit und Ressourcen ungenutzt bleibt und verkommt, aber eben nicht von alleine verschwindet. Es sei denn, man schreddert die Hardware (und erzeugt auf diese Weise wieder anderen Müll).

Wie lässt sich Datenmüll entsorgen?

Was tun gegen die unbeherrschbare Datenflut? Von deren Existenz die Führungskräfte und IT-Spezialisten sehr wohl wissen, denen aber die kompetenten Mitarbeiter, das Wissen und die Werkzeuge fehlen, um sie einzuordnen und sinnvoll zu nutzen?

Es gibt dafür leider keine Patentlösung. Doch es beginnt wohl unentrinnbar mit dem Überblick über die vorhandenen Datenbestände (Data Mapping und Data Discovery) und deren Einstufung – wo sind sie abgelegt, wie lange sollen sie gespeichert bleiben, wer hat Zugriffs- und wer hat Löschberechtigung. Dass dabei Risiko- und Sicherheitsüberlegungen mit eingebunden werden müssen, versteht sich von selbst.

Einen Teil dieser Analyse sowie der Nachverfolgung einschließlich der Berichterstattung können moderne Softwareprogramme übernehmen. Und, wie könnte es anders sein, die überwiegende Mehrheit der Unternehmenslenker setzt ihre Hoffnung diesbezüglich auf die Künstliche Intelligenz, die dabei möglicherweise sogar Qualifikationslücken in der IT ausgleichen sollte. Bislang nutzt nur jede achte Firma KI zum Ausrichten ihrer Geschäftsstrategie ein.

Im Anschluss an die Analyse geht’s dann ans Eingemachte: die Reduzierung der Datenmenge durch risikofreies Löschen sowie die Klassifizierung des entstehenden Konzentrats nach flexiblen Regeln. Das klingt nach keiner leichten Aufgabe, und es ist sogar noch schwieriger: Nach der DSGVO müssen bestimmte (vor allem personenbezogene) Datenverstöße an zuständige Aufsichtsbehörden gemeldet und die betroffenen Personen informiert werden. Es gilt also, Compliance-konform zu handeln. Dann geht’s mit schlankem Datenbestand in die Zukunft …

Was lernen wir daraus? Nichts Neues. Nur, dass wir bereits bei der Datengenerierung an die Weiterverwendung/Löschung denken und diese konsequent durchführen sollten. Sonst ersticken wir schnell an Big Data!

Bildergalerie

  • Autor Roland Ackermann begleitet die Branche seit den späten 1950er-Jahren als Chefredakteur, Verlagsleiter und Macher des „Technischen Reports“ im BR.

    Bild: Roland Ackermann

Verwandte Artikel