Extrait :
La journée exposée à grands traits de cet individu correspond dans l'esprit à une réalité déjà subrepticement à l'oeuvre. Ce qui marque dans le quotidien de cette figure anonyme, c'est la capacité de systèmes électroniques diffus, dotés d'une forme d'omniscience, de le délester de nombreuses tâches, de se charger de son plus grand confort, de lui faire profiter des meilleures offres commerciales, et de s'assurer en toute circonstance de sa plus haute sécurisation. Configuration qui aurait pu récemment encore - jusqu'au tournant du nouveau millénaire - nous paraître relever d'un récit futuriste apparenté à une science-fiction passablement exaltée. Or, ce qui frappe à la lecture de ces lignes, c'est la tension entre un schéma d'allure fantastique et la vérification fréquemment renouvelée d'habiter depuis peu au sein d'un milieu de toute part «sensible» et réactif. Si des dispositifs techniques tangibles ou discrètement intégrés aux surfaces physiques s'agrègent au comportement de cette personne, c'est une dimension imperceptible qui dans les faits rend possible l'efficience de cette mécanique, soit la génération de flux numériques activés par un nombre toujours plus important de ses gestes, continuellement récoltés et analysés par des instances de tous ordres. Résultats croisés en temps réel à toute information jugée pertinente, qui lui reviennent sous la forme de conseils, de suggestions ou d'alertes individualisés.
Car le coeur de notre condition technologique contemporaine renvoie moins aux objets élaborés qui nous environnent qu'au magma immatériel à prolifération exponentielle induit par leurs usages. L'histoire de l'informatique a prioritairement été rédigée «du côté» des instruments et des protocoles. Dimension certes incontournable de cette complexe généalogie, dont on se rend compte aujourd'hui que ce qui l'unifie malgré sa foisonnante hétérogénéité, c'est que leur utilisation a systématiquement entraîné la production de lignes de code suivant des courbes à progression géométrique. Il a souvent été opéré une focalisation sur quelques points saillants de l'industrie de l'électronique : puissance de calcul ou de stockage régulièrement amplifiée, effort constant de miniaturisation, affinement de la qualité ergonomique..., sans qu'il soit dans le même mouvement relevé que toutes ces caractéristiques contribuaient à favoriser la génération corollaire et indéfiniment accrue de data. S'il a été décrit ce qui s'opère en amont, soit l'élaboration de programmes constitués de chiffres structurant le fonctionnement des systèmes, c'est l'ampleur sans cesse croissante de mêmes suites binaires occasionnées en retour par leur emploi, qui singularise aujourd'hui le rapport que nous entretenons aux technologies numériques. Notre époque est caractérisée par un afflux invariablement expansif de données générées de partout, par les individus, les entreprises privées, les instances publiques, les objets, stockées dans les milliards de disques durs personnels ou au sein de fermes de serveurs toujours plus nombreuses. Environnement global qui voit le redoublement en cours de chaque élément physique ou organique du monde en bits exploitables en vue de fonctionnalités de tous ordres.
C'est cette prolifération ininterrompue et exponentielle qui est désormais circonscrite sous le terme de Big data. Il fallait une notion pour identifier ce phénomène singulier propre à ce moment de l'histoire de l'humanité. Probablement devons-nous en appeler au langage pour tenter d'atténuer une forme de vertige. Le double vocable serait apparu en 2008 et aussitôt entré dans le Oxford English Dictionary sous cette définition : «Volumes de données trop massifs pour être manipulés ou interprétés par des méthodes ou des moyens usuels». Énoncé à la forme négative qui explicite non pas le principe, mais focalise sur les limites à pouvoir gérer un mouvement qui se déroberait à notre maîtrise ou excéderait nos facultés de représentation. C'est encore un lexique technique utilisé au cours des dernières décennies qui constitue un marqueur manifeste de la production indéfiniment graduelle de données, par l'intégration successive d'unités de mesure relatives à la puissance de stockage et à celle des processeurs.
Revue de presse :
Diaboliser les big data serait inutile et stupide. Cet essai informé et intelligent, foisonnant de faits et d'idées, propose une stratégie plus fine. Il demande si c'est ce monde que nous voulons. Il substitue, à la fausse évidence de l'inéluctable, un souci de lucidité et de responsabilité, autres noms de l'éthique et de la politique. Ce n'est pas un hasard que pareil tournant soit entamé par un écrivain - non par un chercheur de laboratoire. Les experts n'ont peut-être pas la même acuité. Orwell, en son temps, a mieux su dire le totalitarisme que les politologues. Quand il s'agit de mettre en lumière la logique d'une époque, l'avantage appartient sans doute aux auteurs hybrides - poètes qui pensent, philosophes sensibles, romanciers historiens. (Roger-Pol Droit - Le Monde du 2 avril 2015)
Les informations fournies dans la section « A propos du livre » peuvent faire référence à une autre édition de ce titre.