L’enquête Big Data and Analytics 2015 d’IDG Enterprise montre que le nombre d’organisations ayant déployé/mis en œuvre des projets axés sur les données a augmenté de 125 % au cours de l’année écoulée. L’élan continue de monter.
Le Big Data en tant que concept est caractérisé par 3V : Volume, Vitesse et Variété. Le Big Data implique une énorme quantité de données. En raison de sa taille, le Big Data a tendance à être maladroit. La solution d’implémentation dominante est Hadoop, qui est basée sur des lots. Non seulement une poignée d’entreprises sur le marché collectent simplement beaucoup de données avec du bruit aveuglément, mais elles ne savent pas comment les nettoyer, et encore moins comment les transformer, les stocker et les consommer efficacement. Ils ont simplement mis en place un cluster HDFS pour vider les données collectées, puis les étiqueter comme leur solution « Big Data ». Malheureusement, la conséquence de ce qu’ils ont fait marque en fait la mort du Big Data.
La collecte de beaucoup de données est littéralement inutile si les données ne sont pas correctement utilisées. La clé est l’exploration systématique des données avec un bon ensemble de questions. Par exemple, les données sont-elles uniformes ou irrégulières ? Y a-t-il une quantité importante de variation dans l’ensemble de données? Est-il enfoui dans une masse d’autres informations non pertinentes ? Peut-il être facilement extrait et transformé ? Est-il possible de charger les données à une vitesse raisonnable ? Peut-il être analysé en profondeur ? Peut-on recueillir des idées puissantes ? Sinon, le Big Data seul dans un style ancien est vraiment obsolète, et il existe des substituts.
Une tendance est Fast Data, qui est le traitement de données massives en temps réel pour obtenir une connaissance instantanée et détecter les signaux d’intérêt sur place. Le traitement des données de flux comme Storm facilite le traitement instantané et fiable de flux de données illimités. Le traitement en mémoire comme le cluster Spark est 100 fois plus rapide que MapReduce.
Un autre mouvement est Actionable Data, qui synthétise l’analyse prédictive et l’analyse de simulation pour prescrire des recommandations pour vous permettre de prendre des mesures avec des retours. L’analyse sociale, par exemple, permet aux entreprises de distiller le sens et les valeurs cachées derrière les rames de données et d’activités sociales, afin de glaner des informations exploitables.
Un nouveau changement est les données pertinentes. La relation entre les données est essentielle pour identifier la pertinence dans l’ensemble de données, ce qui conduit à une compréhension plus approfondie d’événements et de séquences apparemment sans rapport. L’objectif doit analyser une grande quantité de données provenant de nombreuses sources et contextualiser chaque bit de données avec sa propre sémantique spécifique. Par exemple, relier diverses activités et passer par des données permet d’augmenter la transparence d’un processus existant, d’améliorer l’efficacité de la procédure ou de développer de nouvelles capacités pour améliorer le prochain ensemble de résultats.
L’autre direction est Smart Data. L’informatique basée sur le sens et l’analyse cognitive rendent les solutions intelligentes et auto-améliorées. Un raisonnement bien informé aboutit à des décisions plus judicieuses. Par exemple, la personnalisation intelligente du contenu exploite toutes les données accumulées à partir des canaux B2C et sociaux, non seulement pour optimiser l’affichage du contenu, mais également pour améliorer l’expérience utilisateur.
Dans l’ensemble, les données rapides, les données exploitables, les données pertinentes et les données intelligentes (FARS) sont bien placées aujourd’hui pour remplacer le Big Data pour le nouveau paradigme.
Pour plus d’informations, veuillez contacter Tony Shan ([email protected]). ©Tony Shan. Tous les droits sont réservés.
Message d’origine