Résumé :
|
En 2020, 35% des données numériques seront produites par 212 milliards d’objets connectés. 44.000 milliards de Go seront générés par ces objets et les systèmes informatiques devront être capables de stocker, d'analyser et d'interpréter ces données massives (Big Data). Aujourd’hui déjà, la visibilité des entreprises comme celle des internautes dépend très largement de la maîtrise et de la compréhension du Big Data, caractérisé par les 4 V (volumétrie, vélocité, variété et valeur). San compter que les enjeux sont multiples et impliquent des domaines divers : informatique, juridique, communication et gestion. Cette visibilité voulue ou induite est le résultat de l’application de modèles, de choix stratégiques et de tactiques opératoires spécifiques au web. Sa part « invisible » est sollicitée à travers les algorithmes opérant lors de requêtes sur les moteurs de recherche, mais aussi à travers des outils qui autorisent les traitements qualitatifs et quantitatifs des données. Ces activités numériques génèrent des traces, des données de masse qui sont un enjeu économique pour les entreprises digitales et une question de colonisation numérique pour les internautes. La visibilité sur le web et le traitement automatisé de données de masse s’imposent à tous et ne peut être interrogée que par des entrées disciplinaires multiples et complémentaires. C'est l’objet de cet ouvrage qui rassemble des communications qui reposent principalement sur des études empiriques et qui représentent autant de chemins pour interroger le concept de Big Data et sa réalité plurielle.
|