Nur ein Prozent der vorhandenen Daten werden von den Anwendungen eines Unternehmens genutzt. Das Webinar zeigt, wie Sie von diesen Data Insights für ihre Geschäftsprozesse profitieren.
Zum Programm des Webinars
Ab 2018 die neue ONEtoONE: Sichern Sie sich schon jetzt mit unserem Vorteilsangebot die neue ONEtoONE, gemacht von Joachim Graf und seinem Team.
Hier ordern

Das sind die Big Data-Trends für 2016

25.01.16 Daten gelten als "das Gold des Digitalen Zeitalters". Aber im Gegensatz zu Gold ist der Rohstoff Daten keineswegs endlich: Etwa alle 18 Monate verdoppeln sich die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung besteht darin, aus dem unüberschaubaren Informationsfluss die wertvollen Körner zu sieben. Oracle zeigt, welche Trends dieses Jahr rund um Big Data zu erwarten sind:

  (Bild: geralt  / pixabay.com)
Bild: geralt / Pixabay
Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten - diese Ära ist Oracle zur Homepage dieses Unternehmes Relation Browser zufolge nun vorbei - 2016 soll Big Data im Mainstream ankommen:

1. Ausgereifte Standardlösungen ersetzen die anfänglichen Spezialsysteme

Big Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und -Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr? Kein Problem, denn dank Cloud-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.

2. Datenvirtualisierung wird Realität

Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch schnell mal den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden - einschließlich Rückwärtskompatibilität und Sicherheit.

3. Datenstromorientierte Programmierung beschleunigt das Tempo

In den Anfängen des Big-Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big-Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.

4. Big Data wird zur Spielwiese von künstlicher Intelligenz

2016 wird vermehrt künstliche Intelligenz bei der normalen Datenverarbeitung eingesetzt - unter anderem maschinelles Lernen, automatische Texterkennung und Property-Graphen. Auf diese Technologien kann im Big-Data-Umfeld bereits jetzt über API-Bibliotheken zugegriffen werden. Nun werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.

5. Das Internet der Dinge und die Cloud sind Treibstoff für Big Data

Big Data-Cloud-Dienste sind die heimlichen Treiber des Internets der Dinge (IoT). Cloud Services werden vermehrt Sensordaten erfassen und für Big-Data-Analysen und -Algorithmen bereitstellen. Diese Analysen werden dann beispielsweise in der Entwicklung genutzt. So werden Fertigungsunternehmen mit Hilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen. Eingriffe durch Menschen werden noch seltener nötig.

6. Datenvorschriften fördern die Hybrid Cloud

Je mehr über die Herkunft der Daten bekannt ist - und das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die "Nationalität" der Daten -, desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.

(Autor: Susan Rönisch)

Weitere Artikel zu diesem Themenbereich:

Anzeige

Ausgewählte Agenturen und Dienstleister zu diesem Themenbereich

Trackbacks / Kommentare
Artikel Weiterempfehlen
Empfehlen Sie diesen Artikel an Kollegen oder Freunde weiter.
Alle Meldungen vom 25.01.16:

Für diesen Seite von iBusiness steht eine Mobile Ansicht zur Verfügung.
Umleiten?