docuteam sponsert Session zu Lifecycle-Management von Daten («know your data»)

Docuteam schlägt am infocamp eine Session zu folgenden Fragen vor: Welches sind konkrete und pragmatische Lösungsansätze für ein Lifecycle-Management und die Kontextualiserung von Daten? Wie gehen wir vor, wenn die Qualität und der Kontext von Datenbeständen nicht bekannt ist, die aber in unseren Systemen liegen? Dürfen diese genutzt werden? Worin liegen die Unterschiede, wenn es sich um statische, dynamische oder gar Echtzeitdaten (z.B. GPS-Daten) handelt? Welche Rolle spielt dabei das Management der Metadaten?

docuteam sponsert am Infocamp 2015 eine Session zum Thema Lifecycle-Management von Daten. Wir möchten mit euch die These diskutieren, dass bereits auf Stufe Daten ein Lifecycle-Management und eine Kontextualisierung notwendig sind, um eine hohe Daten- (und nach deren Verarbeitung Informations-) qualität sicherzustellen. Den Ansatz, mit dem Lifecycle-Management und der Kontextualisierung erst zum Zeitpunkt zu beginnen, wenn aus den Daten ein Produkt entstanden ist (z.B. eine wissenschaftliche Studie, eine Währungsprognose, eine Marketingstrategie oder ein Strategiepapier etc.), erachten wir als zu spät.Unsere These richtet sich an bewusst gesammelte oder im Kontext von Dienstleistungen entstandene Daten – wir denken an Forschungsdaten, an statistische oder medizinische Daten, an Kundendaten von Versicherungen, Banken oder Grosshändlern, an Finanz- oder Geodaten. Alle diese Datentypen weisen zumindest zwei gemeinsame Merkmale auf: sie liegen meist in grosser Anzahl vor und sie müssen von hoher Qualität sein, wenn sie weiterverwendbar sein sollen und als vertrauenswürdiges und authentisches Quellenmaterial dienen sollen.

Selbst wenn wir davon ausgehen, dass die Daten zum Zeitpunkt der Erhebung von hoher Qualität und Zuverlässigkeit sind, kann die Datenqualität bereits bei der Erfassung, der Überführung an den Speicherort oder aufgrund nachträglich erforderlicher Migrationen sinken – etwa durch Datenverluste oder durch eine Verfälschung. Diese Fehlerquellen gilt es durch geeignete Massnahmen zu minimieren. Liegen nun die Daten an dem dafür bestimmten Ort (z.B. in Data Warehouses, in Informationssystemen oder in fachspezifischen Applikationen, oft auch in unterschiedlichen Formaten), beginnt die Herausforderung, diese angemessen zu managen. Einerseits muss klar ersichtlich sein, woher die Daten stammen, in welchem Kontext sie erhoben wurden und wie sie zu interpretieren sind – die Daten müssen eindeutig sein. Ohne diese Information sind die Daten für eine seriöse Weiterverwendung wertlos. Gleichzeitig muss hier das Lifecycle-Management ansetzen: die Daten müssen angemessen geschützt und zugänglich sein und es nützt nichts, wenn ein Datenbestand laufend erweitert wird und dabei nicht mehr gültige und überholte Daten weiterhin nicht als solche gekennzeichnet sind oder gar ausgelagert werden. In allen Verwendungsbereichen ist die Sicherung und Nachvollziehbarkeit der Wertschöpfungskette unerlässlich – dies wird erst durch die angeforderte hohe Datenqualität sichergestellt. Hier gilt es allerdings zu beachten, dass eine Beurteilung der Qualität bei eigenen Daten einfacher sein dürfte, als bei verlinkten Daten, bei denen insbesondere die Prüfung der Vertrauenswürdigkeit eine Herausforderung ist.

Wir schlagen am infocamp eine Session zu folgenden Fragen vor: Welches sind konkrete und pragmatische Lösungsansätze für ein Lifecycle-Management und die Kontexutaliserung von Daten? Wie gehen wir vor, wenn die Qualität und der Kontext von Datenbeständen nicht bekannt ist, die aber in unseren Systemen liegen? Dürfen diese genutzt werden? Worin liegen die Unterschiede, wenn es sich um statische, dynamische oder gar Echtzeitdaten (z.B. GPS-Daten) handelt? Welche Rolle spielt dabei das Management der Metadaten?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.