Chaque année, Tableau lançe une discussion sur les avancées du secteur pour ensuite dresser la liste des grandes tendances du Big Data pour l'année suivante. Découvrez leurs prévisions pour 2017.
"L'année 2016 a été une année charnière pour le Big Data. En effet, les entreprises sont plus nombreuses à stocker, traiter et exploiter leurs données, quelles qu'en soient la forme et la taille. En 2017, les systèmes qui prennent en charge de grandes quantités de données, structurées et non structurées, continueront à se développer.
Les plates-formes devront permettre aux personnes qui s'occupent des données d'assurer la gouvernance et la sécurité du Big Data et en même temps donner aux utilisateurs finaux les moyens d'analyser ces données. Une fois arrivées à maturité, elles s'intégreront sans difficulté aux systèmes et aux normes IT des entreprises.
1. Le Big Data devient rapide et accessible : les options se multiplient pour accélérer Hadoop
Vous pouvez bien sûr pratiquer le machine learning et réaliser une analyse des sentiments sur Hadoop. Mais en général, les utilisateurs cherchent avant tout à savoir si le SQL interactif est rapide.Après tout, c'est le SQL que les utilisateurs métier utilisent lorsqu'ils veulent exploiter leurs données Hadoop afin d'obtenir des tableaux de bord plus rapides et reproductibles, et effectuer des analyses exploratoires.
Ce besoin de rapidité a favorisé l'adoption de bases de données plus rapides, comme Exasol et MemSQL, de systèmes de stockage reposant sur Hadoop, comme Kudu, et de technologies capables d'accélérer les requêtes. Grâce aux moteurs SQL-on-Hadoop, comme Apache Impala, Hive LLAP, Presto, Phoenix et Drill, et aux technologies OLAP-on-Hadoop comme AtScale, Jethro Data et Kyvos Insights, ces accélérateurs de requêtes gomment encore plus les différences entre les entrepôts classiques et l'univers du Big Data."