Die Integration von KI-Engines in Analytics-Anwendungen sowie Data-Governance – also die Verfügbarkeit, Anwenderfreundlichkeit, Integrität und Sicherheit von Daten – sind die beiden Top-Trends für die Analytics-Economy im kommenden Jahr. Das teilt der Data-Analytics-Spezialist Qlik mit. Die Prognosen des Unternehmens für die globalen BI-Trends werden unterstrichen durch eine Umfrage zur Einschätzung wichtiger BI-Trends für das kommende Jahr unter den Teilnehmern der jüngsten Qlik Data Revolution Tour (DRT) in Frankfurt mit rund 300 BI-Experten, Analysten und Unternehmens-Anwendern aus ganz Deutschland.
Wichtigster Trend für 2019 ist laut Qlik die Einbindung von Künstlicher Intelligenz (KI) in Analytics-Anwendungen. Dem stimmen auch über 70% der befragten in Deutschland zu. „Allerdings geht es auch künftig nicht darum, automatisierte Entscheidungs-Maschinen zu bauen, die unabhängig von menschlicher Einsicht agieren“, so Robert Schmitz, Area Vice President Southern Europe & Russia bei Qlik. „Im Vordergrund steht vielmehr, mithilfe kognitiver Systeme schnell, vollständig und unter Einbeziehung aller Datenquellen optimale, datenbasierte Entscheidungs-Grundlagen zu schaffen.“ Helfen könnten dabei KI-basierte Visualisierungs-Empfehlungen oder Vorschläge zur sinnvollen Kombination von Datenquellen. „Mitarbeiter in Organisationen aller Art und Größe werden so von aufwändigen und fehleranfälligen Prozessen entlastet und in der intuitiven Erforschung unterschiedlichster Datenquellen bestärkt“, so Schmitz.
Überwinden von Infrastrukturgrenzen und mobile Verfügbarkeit
Data-Governance steht laut den Top 5 der weltweiten Qlik-BI-Trends ebenfalls weit vorne, unter den Befragten in Deutschland auf Platz zwei der BI-Trends für 2019 (63,4% der Befragten). Neben Verfügbarkeit und Benutzerfreundlichkeit legen BI-Profis vor allem Wert auf Qualität, Integrität und Sicherheit von Daten. „Dabei ist es wichtig, diese Bedürfnisse auch über Infrastrukturgrenzen hinweg zu adressieren“, so Robert Schmitz. Auch und gerade in hybriden und Cloud-Umgebungen seien Datenqualität, rollenbasierte Zugriffsrechte sowie die sichere und komfortable Datenanbindung – ob in der Cloud oder on-premise – entscheidend für immer mehr Geschäftsprozesse über Abteilungen oder Standorte hinweg. „Das bedeutet auch uneingeschränkte mobile Verfügbarkeit von relevanten Datensets und Analytics-Apps bei zentral gemanagter Governance“, so Schmitz.
Vervollständigt werden die Top 5 der globalen Qlik-BI-Trends für 2019 durch die Themen Predictive-Analytics, Data-Literacy und Big Data Indexing. Dem schließen sich auch 63%, 57,7%, bzw. 49,3% der Befragten in Deutschland an.
„Die Vielfalt an Predictive-Analytics-Anwendungen wächst rasant“, so Robert Schmitz. „Gerade in IoT-Umgebungen, wo es um Geräte- und Produktionssteuerung auf der Grundlage von Maschinen- und Sensordaten, von Umgebungsdaten und Wartungsintervallen geht, hilft unter anderem datenbasierte Predictive-Maintenance, kostenintensive Stillstands-Zeiten oder unerwartete, wartungsbedingte Ausfälle zu reduzieren.“
Ganzheitliches, organisationsübergreifendes Datenverständnis
Dass unter den Top 5 Trends für die deutsche Analytics-Economy auch das Thema Data-Literacy – der souveräne Umgang mit Daten – angesiedelt ist, ist für Robert Schmitz ein Zeichen dafür, dass sich zunehmend die Erkenntnis durchsetzt: „Daten allein haben noch keinen Wert.“ Vielmehr müssten Kompetenzen, Werkzeuge und Motivation hinzukommen, die auf der Grundlage der immer weiterwachsenden Datenbestände zu Analyse, Verständnis und letztlich datenbasierten Handlungsoptionen führen.
Dass viele Unternehmen hier bereits auf einem guten Weg sind, jedoch noch einiges an konkretem Handlungsspielraum besteht, betont Schmitz in diesem Zusammenhang: „Laut dem jüngsten Data-Literacy-Index hätten weltweit 63% der befragten Unternehmen gern mehr Mitarbeiter mit echter Datenkompetenz. Doch nur 34% der Unternehmen bieten derzeit Schulungen zur Verbesserung der Datenkenntnisse an.“
Big-Data-Indexing meint die intelligente Indizierung relevanter Datenausschnitte aus großen und größten Datenbeständen. „Wenn auf der Basis von Metadaten relevante Informationen hervorgehoben und in eine Analytics-Anwendung geladen werden, können Performanz und Skalierbarkeit der In-Memory-Technologie auch bei großen und größten Datensets ansetzen, was den kritischen Faktor Zeit positiv beeinflusst – und unter anderem Echtzeit-Analysen auch bei einem enormen Datenaufkommen gewährleisten kann“, so Robert Schmitz.
#Netzpalaver #Qlik