Extrait du livre blanc : "En traduisant n’importe quelle donnée en bits informatiques, partageables sur des réseaux sociaux, stockables à distance avec le cloud computing, les nouvelles technologies de l’information et de la communication ont ouvert une nouvelle ère, celle du big data : la production et la gestion de « données massives » (l’équivalent français de l’expression).
Par « massives », on entend de grandes quantités d’informations (exprimées en milliards d’octets), produites sur des supports variés (capteurs, téléphones, etc.), avec des outils extrêmement véloces permettant d’envisager des décisions en temps réel.
Ainsi défini, le big data constitue un enjeu fort pour tous les acteurs économiques. Pour les entreprises, le sujet est vu comme un moyen de mieux maîtriser leur marché, de conquérir de nouveaux prospects ou de mieux cerner les attentes de leurs clients actuels.
L’information devient un actif stratégique. Par ailleurs, le big data est lui-même un objet de création de richesse, avec des sociétés se positionnant sur des activités de collecte, de vérification, de traitement, d’exploitation, d’archivage de données.
Le big data ne saurait exclure les acteurs publics, qui disposent là d’une opportunité pour proposer de nouveaux services aux citoyens. En particulier dans les domaines en rupture technologique, comme la ville intelligente, l’e-santé ou les smart grids.
Mais rapidement, émergent plusieurs autres enjeux : celui du contrôle, de la fiabilité, de la propriété intellectuelle des données, et celui de l’interopérabilité tant au niveau du processus de collecte que de l’extraction de l’information et la restitution des résultats. La normalisation volontaire est un moyen efficace d’y parvenir."