Schweitzer Fachinformationen
Wenn es um professionelles Wissen geht, ist Schweitzer Fachinformationen wegweisend. Kunden aus Recht und Beratung sowie Unternehmen, öffentliche Verwaltungen und Bibliotheken erhalten komplette Lösungen zum Beschaffen, Verwalten und Nutzen von digitalen und gedruckten Medien.
Ausgerechnet der Bereich, der für jedes Unternehmen und seine Steuerung zentrale Bedeutung hat, ist oft ein Musterbeispiel für den suboptimalen Umgang mit Daten: das Berichtswesen. Wissen Sie, wie viel Zeitaufwand in den Berichten steckt, die Ihr Controlling Ihnen regelmäßig liefert? Oder wie aufwendig es ist, wenn Sie die Variable XY zusätzlich berechnet haben möchten? Vermutlich nicht, dafür haben Sie ja Controller, und diese sagen Ihnen in der Regel nicht, womit sie ihre häufig langen Arbeitstage verbringen. Eine Vorstellung vom manuellen Aufwand, der mitunter im Berichtswesen betrieben wird, gibt Ihnen der folgende Fall.
In einem Versicherungsunternehmen fielen regelmäßig 300 Berichte an. Ein neues Produkt in einen einzigen dieser Berichte zu integrieren, bedeutete zwei Tage Arbeitsaufwand. Multiplizieren Sie das 300-mal mit den entsprechenden Mitarbeitergehältern - und Sie kommen auf horrende Opportunitätskosten.
Bei all dem geht es mir nicht um eine Anklage der Controlling- oder IT-Abteilungen, die eben mit den Instrumenten arbeiten, die ihnen zur Verfügung stehen. Es geht mir darum, dass diese Instrumente häufig unzureichend sind, mühsam zu bedienen und fehleranfällig. Der Standardfall in vielen Unternehmen ist nach wie vor und trotz der stetig wachsenden Datenflut die Tabellenkalkulation. Das ist aus verschiedenen Gründen problematisch, wie die folgende Übersicht belegt:
Gravierende Nachteile der Tabellenkalkulation mit Excel
Tabellenkalkulationen sind stark von manuellen Eingaben abhängig und damit kommt es zwangsläufig zu Fehlern. Schätzungen besagen, dass fast 90 Prozent der Berechnungen Fehler aufweisen5 - was sich mit unserer Alltagserfahrung in zahlreichen Unternehmen deckt.
Tabellenkalkulation zwingt den Controller zur Anforderung der Daten aus anderen Bereichen, mit den üblichen Verzögerungen und weiteren möglichen Fehlerquellen (siehe Abbildung 1). Kommen Cloud*-basierte Lösungen zum Einsatz, ist es schwierig zu steuern, wie andere Benutzer die Daten eingeben.
Hunderte von Zeilen werden manuell ausgefüllt, es wird nach Fehlern gefahndet (zum Beispiel nach der Duplizierung von Daten durch das Kopieren von einem Blatt auf das andere), einfache Änderungen wie Formelanpassungen oder neue Kennzahlen müssen händisch eingepflegt und getestet werden, aufgeblähte Excel-Dateien verursachen enorme Ladezeiten und verzögern Prozesse.
Für die Analyse als wesentlichen Bestandteil des Berichtswesens bietet die Tabellenkalkulation praktisch nichts. Kritische Daten werden in einer Masse von Zeilen und Spalten versteckt oder gehen vollständig verloren. Aufgrund des begrenzten Funktionsumfangs ist eine Datenvisualisierung nahezu unmöglich, und ohne diese gibt es keine Möglichkeit, Kennzahlen zu verdichten. Außerdem kommt Ihr Controlling kaum zur Analyse der Daten, weil die Berichtserstellung Studien zufolge mehr als drei Viertel seiner Zeit verschlingt.
Welche dramatischen Folgen eine fehlerhafte Tabellenkalkulation haben kann, zeigt ein Fall aus Großbritannien: Dort gab der Getränkegroßhändler Conviviality eine Gewinnprognose bekannt, die 20 Prozent unter den Erwartungen lag. Der Aktienkurs des Unternehmens stürzte ab, das Unternehmen verlor zwischenzeitlich 60 Prozent seines Aktienwertes. Später stellte sich heraus, dass ein Rechenfehler Ursache der existenzgefährdenden Gewinnwarnung war.6
Manuell erhobene Daten sind fehleranfällig, individuelle Programmierungen sind intransparent.
Möglicherweise verlassen Sie sich nicht mehr auf einfache Tabellenkalkulationen, sondern haben ein modernes Tool (zum Beispiel Tableau, MS Power BI, Qlik oder SAP Analytics Cloud) implementiert, welches für das Standardberichtswesen ansprechende Aufbereitungen und interaktive Dashboards* erlaubt. Mit zunehmender Datenmenge und weiteren Anforderungen wird dieses Tool häufig maximal ausgereizt, es werden neue Funktionen hinzuprogrammiert und komplexe Verknüpfungen erstellt, die irgendwann den Rahmen der Standardlösung sprengen. Auch manche Controller toben sich hier aus. Wenn das alles nicht mehr funktioniert, werden Berater gerufen, die dieses Flickwerk retten sollen. Doch das ist zeitraubend und teuer, sodass sich die anfangs günstige Lösung am Ende als Kostentreiber erweist.
Hinzu kommt, dass im Unternehmen niemand außer den Beteiligten ITlern oder Controllern (oder dem beauftragten externen Dienstleister) durchblickt, wie das Ganze eigentlich funktioniert. So entstehen Kopfmonopole* - Abhängigkeiten, die sich bei Kündigung oder Krankheit der Schlüsselperson als fatal erweisen. Warum sieht die Praxis in vielen Unternehmen so aus? Zum einen lieben manche Controller es, Daten zusammenzuschaufeln und Lösungen auszutüfteln. Dass sie dadurch kaum zu ihrer eigentlichen Aufgabe - der Datenanalyse und daraus abgeleiteten Handlungsempfehlungen - kommen, nehmen sie in Kauf. Zum anderen ist die Erstellung einer integrierten Gesamtlösung für die Erhebung und Auswertung von Daten nicht ihre Aufgabe und überschreitet ihre Fachkompetenz wie auch die Kompetenz mancher interner IT-Abteilungen.
In einem Kundenprojekt war einem Standort die Hoheit für das Datenmanagement und damit die Befugnis übertragen worden, alle Prozesse und Systeme in seinem Bereich zu integrieren. Der Standort begann mit der Migration einzelner Bereiche und setzte neue Systeme auf, indem er existierende Datenbestände anzapfte und aufbereitete, ohne diese fachlich abzugleichen. Die Fachbereiche sollten dann eigenständig Auswertungen mit der erstellten Datenbank durchführen. Dafür war allerdings Fachwissen erforderlich, insbesondere die Beherrschung von SQL*, einer Datenabfragesprache. Es war im Grunde unverantwortlich, Fachbereichen ohne einschlägige Expertise eine solche Aufgabe zu übertragen. Einer der dort zuständigen Mitarbeiter verlor den Überblick, bekam Angst und trat die Flucht nach vorn an, indem er externe Unterstützung einforderte. Wir hatten große Mühe, das entstandene Datenchaos zu entwirren, und fingen praktisch von vorne an.
Was bedeutet all das für Sie als Entscheider im Unternehmen?
Solche Business-Intelligence-Plattformen gibt es inzwischen von zahlreichen Anbietern mit verschiedenen Einsatzbereichen von bloßer Datenvisualisierung bis zur Datenintegration*. Bekannte Systeme mit Schwerpunkt »Visualisierung« sind beispielsweise Microsoft Power BI, QlikView und Qlik Sense und SAP Analytics Cloud (SAC). Systeme zur Datenintegration gehen weiter und bieten eine Verbindung und Bereitstellung von Daten aus verschiedenen Quellen. Sie sind daher ideal, um...
Dateiformat: ePUBKopierschutz: Wasserzeichen-DRM (Digital Rights Management)
Systemvoraussetzungen:
Das Dateiformat ePUB ist sehr gut für Romane und Sachbücher geeignet - also für „fließenden” Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein „weicher” Kopierschutz verwendet. Daher ist technisch zwar alles möglich – sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.
Weitere Informationen finden Sie in unserer E-Book Hilfe.