Chapitre 1. Contrôle et surveillance
Texte intégral
1La remise en question de la neutralité des réseaux et la révélation d’une surveillance totale par les services secrets, dont les grandes lignes ne seront décrites que brièvement dans ce qui suit, ont une dimension technique, politique et épistémologique1. L’objectif de ce chapitre est de regrouper ces dimensions en une seule et unique analyse. Des acteurs aussi divers que le Parlement européen, les fournisseurs d’accès des télécommunications, les informaticiens, les prestataires de service, la FCC (Federal Communications Commission), les pirates et les juristes négocient une solution à un problème technique qui touche Internet comme entité politique et qui affecte non seulement la distribution des informations, mais aussi l’agencement de cette distribution. Pour comprendre l’interaction de ces trois aspects, il est nécessaire de ne pas perdre de vue la structure technique d’Internet, ses procédés de transmission et les processus de négociation dont il fait l’objet, dont l’émergence sera décrite dans le détail au prochain chapitre en s’appuyant sur le modèle de Paul Baran. Dans cette perspective, les méthodes de calcul et les algorithmes utilisés au niveau des nœuds pour les protocoles n’ont pas une grande importance (ils ne sont pas commentés dans les textes historiques consultés pour le présent ouvrage). En revanche, les questions architecturales concernant l’agencement des nœuds, la distribution des données et la production des connexions nous intéressent car c’est uniquement à ce niveau qu’apparaissent clairement l’imbrication des solutions techniques, des processus politiques et des défis épistémologiques.
End-to-End : l’architecture de l’entre-deux
2Pour simplifier, disons que les différentes architectures réseau reposent sur l’organisation des données transmises en de petits paquets standardisés qui empruntent divers chemins d’un nœud à un autre. À chaque nœud, les paquets des différents expéditeurs sont traités par ordre d’arrivée et la suite de leur acheminement est déterminée au moyen d’un « en-tête », comparable à une étiquette de colis, en fonction de la charge du réseau. Personne n’est obligé de planifier ou de connaître le chemin qui sera emprunté par un paquet. Étant donné que le trafic aux nœuds est transmis indépendamment de ses origines, du matériel utilisé et du contenu, et presque uniquement selon une modalité formelle déterminée par le protocole, les utilisateurs et les prestataires de service ont la certitude que leurs données arrivent à destination telles qu’elles ont été envoyées. En principe, ce processus a été conçu dès le début, à savoir dès l’époque des grandes capacités par utilisateur avant l’apparition du World Wide Web dans les années 1990, comme une modalité ouverte, égalitaire et fondamentalement non discriminatoire de gestion des paquets. Cependant, la nécessité d’organiser les paquets entrants aux nœuds et d’en gérer la distribution était déjà inscrite dans ces procédés.
3Les tâches accomplies aux nœuds par les serveurs et les routeurs ont été définies en 1974 par les informaticiens Vinton Cerf et Robert Kahn dans leur célèbre article « A protocol for Packet Network Intercommunication », dix ans après la publication de Paul Baran et à une époque où les fournisseurs étaient encore des centres de calcul et de recherche. Ce document décrit l’ensemble des règles qui organisent la distribution, le Transmission Control Protocol (TCP), un protocole encore valable aujourd’hui et qui se charge de regrouper les données dans des paquets et de leur assigner un en-tête lisible2. Le protocole Internet Protocol (IP), développé à la même époque, qui donne une adresse aux paquets, est responsable de l’acheminement des paquets de données et transmet les données entrantes d’une application à l’accès au réseau d’un ordinateur donné. Ensemble, le protocole TCP/IP s’assure que, dans un seul et unique réseau distribué, tous les paquets ou le plus grand nombre de paquets arrivent à destination. Il s’agit d’un protocole dit « sans connexion », car il n’est pas nécessaire de savoir s’il y a une connexion avant la transmission. Dans les procédés axés sur les connexions, utilisés avant tout pour gérer le trafic téléphonique, un test est effectué avant la transmission pour savoir s’il y a une connexion directe avec la cible. TCP sert à établir cette connexion pendant la transmission et le transport de sorte que divers protocoles d’application tels que File Transfer Protocol (FTP), Simple Mail Transfer Protocol (SMTP) ou Hypertext Transfer Protocol (HTTP) – important pour Internet – sont utilisables par accès réseau et que plusieurs utilisateurs puissent utiliser la même ligne en même temps3.
4Selon le modèle de V. Cerf et de R. Kahn, les nœuds opèrent comme des boîtes noires, certes simples et fiables mais entièrement indifférentes à ce qui les traversent, et sur la base d’un matériel variable. Dans un article influent publié en 1984, les informaticiens du MIT, Jerome H. Saltzer, David P. Reed et David D. Clark (à cette époque, tous les participants à la phase de développement étaient des hommes), ont qualifié cette structure de End-to-End-Principle. D’après ce principe, un réseau ne peut être implémenté « complètement et correctement qu’avec la connaissance et l’aide de l’application aux extrémités du système de communication » (Saltzer, Reed & Clark 1984 : 287). Inversement, le fait que seuls les programmes installés sur les terminaux soient responsables du traitement implique la neutralité des nœuds, seuls capables de déterminer l’acheminement. Dans ce sens, la neutralité ne signifie pas l’absence de décision, mais le fait que ces décisions sont indépendantes du contenu transmis et du matériel utilisé de chaque côté4. Par conséquent, le protocole ne définit pas les actes décisionnels, mais leurs règles.
5L’accès autorisé par le protocole est donc limité à l’en-tête et ne peut pas commencer par les données dans le corps. Dans un Request for Comments (RFC) de 1996, un document technique public dont se servent les informaticiens pour coordonner et standardiser la structure des réseaux, Brian Carpenter, ingénieur réseau au CERN (Organisation européenne pour la recherche nucléaire), complète la définition du End-to-End Principle en le qualifiant d’élément essentiel à l’architecture d’Internet : « La tâche du réseau est de transmettre des datagrammes de façon aussi efficace et flexible que possible. Le reste doit être réalisé à la marge » (Carpenter 1996). Ce principe, affiné progressivement dans les trois textes mentionnés, permet le transport de tous les paquets par les nœuds, indépendamment de l’application assignée, de l’utilisateur, du matériel utilisé et du contenu. Ce qui arrive aux données dans les paquets est déterminé par les applications installées sur les terminaux. Pour résumer en trois points, le principe End-to-End permet des solutions techniques flexibles parce que les nœuds ne sont pas impliqués dans les processus de calcul, une liberté politique des contenus parce que chaque utilisateur peut tout envoyer, puis un potentiel économique parce que de nouveaux services peuvent croître sans entrave (Bendrath & Mueller 2010 ; Gillespie 2006).
6Étant donné que les capacités de réception et de traitement de chaque nœud sont techniquement limitées, une charge trop élevée peut, malgré des processus de synchronisation complexes, aboutir à un ralentissement de la transmission ou à la perte de paquets. Aux nœuds, les paquets sont traités le plus rapidement possible selon leur ordre d’arrivée conformément au protocole initial (best-effort principle). Si le nombre de paquets dépasse la capacité de la mémoire tampon ou de la durée de traitement, ils disparaîtront ou seront supprimés : « Si les mémoires tampons sont épuisées, les arrivées successives peuvent être éliminées parce que les paquets non acquittés seront retransmis » (Cerf & Kahn 1974 : 645). Cela n’est pas un problème en soi car la perte de paquets a été prise en compte dans ce modèle : « Aucune transmission n’est fiable à cent pour cent » (ibid. : 644). Depuis P. Baran, la redondance de la transmission est le but ultime de chaque modèle de réseau, une ambition reprise par V. Cerf et R. Kahn : le réseau doit rester opérationnel non seulement si les nœuds sont éliminés mais aussi en cas de perte de paquets. Des livraisons de substitution seront demandées automatiquement par le nœud précédent en cas de paquet manquant. Le nœud récepteur envoie une confirmation pour le paquet aux nœuds précédents et la copie numérique sur le nœud de sortie est supprimée. En l’absence de confirmation de la réception, le paquet est envoyé sur un autre chemin. Compte tenu de l’augmentation extrêmement rapide du volume de données depuis l’expansion mondiale d’Internet, des retards importants peuvent se produire, même pour l’utilisateur particulier, lorsque les nœuds sont surchargés pendant une longue durée et lorsque les requêtes ne sont même plus envoyées.
Points de congestion dans les réseaux
7Les débats actuels tournent principalement autour des stratégies employées par les fournisseurs d’accès pour contourner ces points de congestion. On peut cependant se demander si ce risque est bel et bien réel ou s’il est brandi pour des raisons économiques, toutes les parties prenantes adhérant à cette rhétorique parce qu’y trouvant leur intérêt. Cependant, indépendamment de la réalité de cette surcharge et du contexte de la régulation et de l’extension des réseaux, cette problématique place la question des capacités de transmission au centre des défis techniques. À ces goulots d’étranglement s’oppose l’absence potentielle de limite des données numériques. Deux options sont possibles pour maintenir le niveau de transmission auquel nous sommes habitués : le développement des infrastructures par l’extension des réseaux, coûteux et sans promesse de gain, option encouragée par le ministère fédéral allemand des Transports et des Infrastructures numériques ; ou l’optimisation de l’utilisation des capacités existantes. Apparemment, il est plus rentable de vendre la capacité actuelle à un prix plus élevé et de ne pas la distribuer de façon égale à tous les utilisateurs ou de ralentir un certain trafic, une stratégie qualifiée de « corruption » par Tim Berners-Lee, le développeur du World Wide Web (Fung 2014). Le but des fournisseurs, parfaitement illustré par la Deutsche Telekom, est de permettre une meilleure utilisation du réseau en n’augmentant sa capacité que lentement, ce qui revient à réaliser des bénéfices plus importants avec une augmentation des coûts limitée.
8La menace que représentent les points de congestion pour un accès stable au réseau a incité le Chaos Computer Club (CCC) à faire une déclaration publique modérée intitulée « Revendications pour un réseau digne de ce nom ». Les auteurs affirment que la priorisation des données à des fins de gestion de la bande passante n’est acceptable que
si la transparence est garantie pour les clients, si cette priorisation fait partie des conditions contractuelles et s’il y a vraiment congestion, concrètement si cette influence sert vraiment à attribuer à tous les clients une juste part de la capacité existante. (Chaos Computer Club 2010)
9Le CCC a attiré l’attention sur le fait que des infrastructures insuffisantes ont entraîné ou pourraient entraîner l’apparition de points de congestion et que des mesures durables doivent être prises pour y remédier. Pour cette organisation, si la priorisation n’est pas une solution idéale, elle peut occasionnellement s’avérer nécessaire dans des conditions transparentes. Nous pourrions même aller au-delà de la position du CCC et supposer que dans des réseaux de données suffisamment complexes, une capacité sous-optimale est la règle et que nous avons affaire à un problème systémique.
10À proprement parler, l’extension des réseaux garantit à elle seule la neutralité des réseaux de façon durable parce qu’avec des capacités suffisantes, la neutralité n’est plus un problème. Cependant, en Allemagne, on assiste à une stagnation en raison d’incitations insuffisantes, tout comme dans de nombreux pays industrialisés. L’encouragement de la neutralité implique de s’engager pour l’amélioration des infrastructures, ce qui soulève de nouvelles questions et de nouveaux problèmes : Quels financements ? Quels rapports de propriété ? Quel pouvoir est intrinsèquement conféré ? Sur quelle base juridique peuvent-elles être monopolisées de façon démocratique ? En effet, depuis le xixe siècle, la construction de grands réseaux d’infrastructures nécessite une accumulation de capitaux sans précédent dans l’histoire. Les réseaux d’énergie, que l’historien des technologies Thomas P. Hughes (1993) a décrits dans son ouvrage monumental sur l’émergence des grandes compagnies d’électricités américaines, sont étroitement liés à la montée du capitalisme. Les infrastructures exaspèrent les convoitises et sont matière à conflit depuis longtemps. Rien que pour le développement des réseaux, une question sans aucun doute importante et incontournable, il semble improbable que cette solution n’apporte une réponse aux nombreux défis qui se posent au-delà de la simple gestion de la bande passante.
11À cela s’ajoute le fait qu’il est devenu de plus en plus difficile d’interpréter les intérêts des différents acteurs. Comme l’expérience nous l’enseigne, la neutralité est dans les mains des fournisseurs d’accès tandis que les législateurs dans le monde entier sont invités à créer les bases juridiques (Marsden 2010). Cependant, compte tenu du scandale de la NSA et de l’évidente coopération de nombreux fournisseurs d’accès avec les services secrets, il est impossible de définir clairement les responsabilités. Les fournisseurs d’accès établissent leurs propres règles et les États tels que la Chine ou les États-Unis surveillent, en collaboration avec ces fournisseurs, une grande partie du trafic de données de sorte qu’on ne peut que difficilement parler de neutralité. Raison de plus pour s’interroger sur les enjeux de cette neutralité !
12Le concept de neutralité des réseaux a été inventé par le juriste Tim Wu dans le cadre de débats politiques et juridiques5. Avec le spécialiste du droit constitutionnel Lawrence Lessig, il s’est penché de près sur les dimensions politiques et les défis techniques de la neutralité des réseaux pour déplacer les débats de la sphère juridique à celle de la protection des droits des citoyens (Wu 2003 ; Schewick 2010). D’après la définition de T. Wu, la neutralité du réseau garantit que dans un seul réseau, tous les types d’information sont transmis sans aucune distinction et qu’un très grand nombre d’applications sont compatibles, permettant ainsi une participation démocratique aux dynamiques sociales qui en résultent. Pour T. Wu, la neutralité des réseaux s’inscrit dans la structure d’Internet, où il est permis de traiter indépendamment des images, du texte et du son :
Ce principe suggère que les réseaux d’information sont souvent plus précieux lorsqu’ils sont moins spécialisés, lorsqu’ils sont une plateforme destinée à des usages multiples. (Wu 2015)
13En Amérique du Nord, la neutralité des réseaux est souvent évoquée dans les débats, généralement de nature économique, pour éviter le blocage du potentiel d’innovation et de création de valeur ajoutée qui résulterait de la suppression de la concurrence sur Internet6. La crainte porte sur le fait que les grands fournisseurs d’accès pourraient exploiter leur position de gardien du réseau pour entraver ou bloquer la concurrence, une crainte récemment alimentée par le blocage, hautement médiatisé, de Skype sur le réseau mobile de T-Mobile7. La concurrence est également forte dans le domaine de l’Internet mobile car le spectre radio représente une limite physique aux capacités de transmission des données sans fil. C’est pourquoi les fournisseurs de ces services sont depuis longtemps très sélectifs dans le traitement préférentiel des trafics sur les réseaux mobiles. Par exemple, l’utilisation de services de streaming payants tels que Spotify n’est souvent pas prise en compte dans le volume du forfait. Avec les conditions d’utilisation, il est possible de limiter l’accès à Internet. Certains tentent également de faire participer les principaux responsables commerciaux de ce trafic (surtout Google, YouTube et Netflix) aux coûts des infrastructures dont ils bénéficient sans y contribuer financièrement. Les fournisseurs prévoient d’exiger une participation financière des prestataires dont ils facilitent l’accès aux clients. Il reste donc à clarifier les relations entre les propriétaires de l’infrastructure et ceux qui l’utilisent, à savoir les utilisateurs d’un côté et le fournisseur de l’autre8.
14Dans ce sens, Lawrence Lessig a souligné dans le détail les bénéfices économiques et culturels de l’ouverture des réseaux (Lessig 2004 ; Mueller 2004). Selon lui, c’est précisément la neutralité qui permet à Internet de générer de nouveaux marchés, lesquels, dans une société libre, sont censés être accessibles à tous. Il ajoute que dans des cas exceptionnels tels que l’IPTV, à savoir la télévision par Internet, ou la mise à disposition de services VoIP (Voice over IP) à la police et à l’armée, les fournisseurs d’accès doivent suspendre le principe de neutralité car ces services ne peuvent rester stables qu’avec des connexions stables. Dans le cas contraire, ils se trouveraient dans une position désavantageuse par rapport à d’autres services similaires. En d’autres termes, les infrastructures critiques doivent faire l’objet d’un traitement spécial. Cependant, une limitation générale du trafic contredirait la loi de Metcalfe, selon laquelle la valeur d’un réseau est proportionnelle au nombre de connexions possibles entre ses utilisateurs, les coûts du réseau restant uniquement proportionnels au nombre d’utilisateurs9. Si des hiérarchies se mettent en place entre les nœuds, la valeur du réseau décroît.
15Tel que T. Wu et L. Lessig l’ont souligné à plusieurs reprises, la question d’une différence de traitement entre les paquets de données d’Internet est non seulement une question économique, mais concerne également la conception démocratique d’Internet, qui, rappelons-le, repose sur le principe End-to-End. Les défenseurs de la neutralité des réseaux établissent souvent un lien entre conditions techniques et liberté d’expression et prospérité économique. Pour reprendre les termes de L. Lessig,
[La] neutralité imposée dans l’utilisation des lignes a laissé le champ libre à d’autres, qui les ont utilisées d’une façon à laquelle personne ne s’attendait. Internet a été une façon parmi d’autres. (Lessig 2004 : 149)
16L’absence d’autorité supérieure à l’origine des décisions et l’indépendance des protocoles des institutions peuvent en général être comprises comme une opportunité d’organisation démocratique et d’application de l’article 19 de la Déclaration des droits de l’homme des Nations Unies. Celle-ci prévoit non seulement la liberté d’expression, mais aussi la possibilité « de chercher, de recevoir et de répandre, sans considérations de frontières, les informations et les idées par quelque moyen d’expression que ce soit » (Nations unies 1948).
17Les débats des dernières années se sont enflammés autour du fait que les infrastructures nécessaires pour Internet sont devenues le fondement d’un nouveau type de sphère publique. En tant que telles, leur valeur sociale est plus importante que les intérêts commerciaux des entreprises privées qui les possèdent. La poursuite des profits n’est compatible avec le maintien de ces structures nécessaires à la survie d’une société moderne qu’à travers la régulation. Telle que l’a montré Johannes Paßmann, cette conception de la neutralité des réseaux est la continuation du rêve d’un média démocratique, d’une importance cruciale pour la constitution d’Internet, exprimé par John Perry Barlow (1996) dans un manifeste Internet distribué par email. À l’époque, Internet promettait de représenter un ordre social ouvert et démocratique qui, comme c’est le cas aujourd’hui, devait être protégé contre les intérêts économiques privés. Selon J. Paßmann (2014), avec le rappel de ces principes, on affirme qu’une telle utilisation et situation de marché neutres pourraient exister, ce qui d’après lui est loin d’être le cas compte tenu de la position dominante des grandes entreprises. En résumé, nous faisons face à un conflit pour la distribution des ressources dont l’issue déterminera qui peut être connecté à qui, et qui disposera d’informations sur cet état de fait.
18D’après les activistes de Netzpolitik.org ou La Quadrature du Net, la crainte que tous les paquets de données ne soient plus envoyés sans discrimination par tous les fournisseurs tient principalement au fait que les entreprises privées décideront de ce qui pourra être transmis. C’est autour de cette question de souveraineté que tourne l’idée de H. Halpin d’une « guerre civile immatérielle ». Le revers de la priorisation est la discrimination, premièrement parce que les utilisateurs non prioritaires disposeront d’une bande passante réduite et deuxièmement parce que cette priorisation renferme un potentiel de surveillance, de contrôle et de blocage. D’après les activistes, la conséquence à long terme de l’abolissement de la neutralité du réseau serait la perte de la fonction démocratique d’Internet, pilier d’une société ouverte au xxie siècle et – argument souvent avancé aux États-Unis – condition de l’exploitation du potentiel d’innovation des nouveaux services et donc de la dimension économique de la mise en réseau10. De ce point de vue, la neutralité des réseaux sert le bien commun.
19Le secteur privé avance en revanche que, compte tenu de l’augmentation du volume de données, seuls le contrôle et la régulation des transmissions permettra un usage satisfaisant d’Internet. Dans un rapport interne publié en 2010 et intitulé « Que signifie la neutralité des réseaux ? », la Deutsche Telekom parle d’une « gestion novatrice des réseaux » et de « classes de qualité différentes » au service d’une « offre de qualité et d’une utilisation efficace des ressources de réseau » (Deutsche Telekom 2010). Disons que le problème de l’encombrement des autoroutes des données devrait être contrecarré par un système de contrôle qui non seulement utiliserait une signalisation pour garantir le flux des données mais aussi inspecterait les occupants des véhicules afin d’assigner des priorités : les ambulances et les véhicules qui transportent des matériaux dangereux d’un côté et les clients payants de l’autre11. Compte tenu de la nécessité, découlant de l’augmentation des volumes de données, non seulement de contrôler mais aussi de réguler le trafic des données, les fournisseurs cessent d’accorder à tous un traitement égal et se mettent à privilégier les personnes prêtes à payer davantage. Cependant, cela présente l’inconvénient (ou l’avantage) de devoir inspecter le contenu de chaque voiture et de chaque paquet de données afin de procéder à un processus de sélection. Établir des priorités signifie donc – chose essentielle – que des décisions soient prises aux nœuds en fonction des connaissances du fournisseur du contenu transmis.
Deep Packet Inspection
20Les raisons pour lesquelles ces débats ont trouvé un fort écho, non seulement parmi les juristes et les économistes, comme c’est le cas depuis le début des années 2000, mais aussi pendant des années sur les forums Internet, sont nombreuses. Tout d’abord, ces débats s’inscrivent dans une époque où sont proposés de façon massive des tarifs et des forfaits indépendamment des volumes sur la base d’un calcul mixte qui équilibre la forte utilisation des uns par une utilisation minime par les autres. Les applications peer-to-peer telles que BitTorrent ou eMule, l’augmentation permanente des volumes de données requises par les services en nuage et les jeux en ligne, l’augmentation des spams et la popularité croissante des services sensibles aux fluctuations tels que la vidéotéléphonie, le streaming ou la convergence de la télévision et d’Internet contribuent à cette explosion des volumes de données12. Cette situation dépend néanmoins d’une nécessite technique : la transmission d’un email est bien moins critique en termes de contrainte de temps que celle d’un appel vidéo, lequel doit arriver à temps pour éviter l’interruption. Entre autres, les établissements médicaux et les services de police demandent la mise en place d’assurances qualité en accordant la priorité à ces services. Cependant, dans la mesure où ces services sont sujets à des intérêts commerciaux et où les fournisseurs y trouvent une source de revenus, ces derniers sont confrontés à un problème dont ils portent l’entière responsabilité. Il est devenu de plus en plus évident que l’architecture d’Internet n’était pas appropriée aux services vidéo, lesquels sont basés sur le principe de l’émission, à savoir sur la distribution du même contenu à des utilisateurs multiples. En raison d’investissements insuffisants dans le développement, la surcharge des infrastructures semble inévitable sur le moyen terme.
21Cependant, le conflit n’a pas progressé au point d’opposer les fournisseurs privés à l’intérêt public. Au cours des dernières années, des procédés de Deep Packet Inspection (inspection des paquets en profondeur) ont été perfectionnés. Avec l’analyse de données volumineuses, ceux-ci permettent une régulation plus efficace du trafic qu’un traitement égal de tous les paquets13. Qualifié par l’informaticien Rüdiger Weis (2012) de « scanneur corporel d’Internet », la Deep Packet Inspection, terme générique qui recouvre diverses technologies, représente bien plus qu’une simple solution contre la surcharge des réseaux. Elle permet de contrôler le contenu des paquets au moindre bit au niveau des nœuds, à savoir là où la transmission est interrompue. Au lieu de les identifier uniquement au moyen de l’en-tête, ce procédé ouvre les paquets de bits, lit le payload et l’analyse individuellement ou de façon statique. L’activiste Internet Markus Beckedahl (2009) a qualifié la Deep Packet Inspection de « technologie à risque » dans la mesure où des mesures d’assurance qualité appropriées permettent de garantir une surveillance intégrale (Krempl 2011).
22Avec le procédé habituel Stateful Packet Inspection, chaque paquet de données est identifié et assigné sur la base de son en-tête. Avec le protocole de transmission actuel IPv4, l’en-tête peut être repéré avec des informations sur l’importance d’un paquet, mais aucun standard ou aucune obligation n’impose l’établissement de priorités entre ces paquets (Beckedahl 2009). Avec l’introduction progressive de IPv6, qui a commencé il y a déjà quelques années (on a sauté IPv5), il est devenu possible de classifier les types de transport (mais aussi de crypter le contenu) qui n’étaient pas implémentés avec IPv4. Ceci a facilité l’établissement de priorités entre les différents paquets sans recourir au procédé de Deep Packet Inspection14. Cependant, étant donné que les grands fournisseurs ont depuis acquis le matériel nécessaire pour le procédé Deep Packet Inspection (une obligation légale aux États-Unis, que nous expliquerons plus tard) et compte tenu des incitations à réguler le trafic au-delà de la simple gestion de la bande passante, il est encore trop tôt pour placer tous ses espoirs dans cette solution simple.
23Chaque paquet est composé de plusieurs couches logistiques indépendantes dont le rôle est de permettre la communication entre différents réseaux. Ces couches sont réunies dans un modèle Open System Interconnection (OSI) et représentent en quelque sorte les enveloppes du paquet de données, chacune portant des informations différentes. À un nœud déterminé, les couches supérieures doivent être exposées pour que le paquet puisse être transmis car elles renferment des données en rapport avec le transport. Elles fournissent des informations sur le matériel et l’en-tête qui doivent être utilisées pour permettre la connexion et la transmission, informations nécessaires au bon fonctionnement du protocole TCP. Les transmissions effectuées avec ces protocoles n’ont accès qu’à ces couches supérieures. Les données des couches inférieures sont présentes mais, même sans cryptage, ne sont pas accessibles avec ce protocole (fig. 1).
Fig. 1. Modèle OSI

Source : D’après Wikimedia.
24En fonction du matériel et du fournisseur, le procédé Deep Packet Inspection permet de lire les couches en rapport avec l’application, de la couche contenant les informations transmises pour un navigateur à celle concernant le client peer-to-peer, en passant par celle relative à Skype. Pour cela, les appareils sont équipés de signatures de données qui permettent de scanner et, lorsqu’il y a concordance, de classifier et de traiter le trafic de données. Étant donné que le procédé Deep Packet Inspection analyse tous les aspects du trafic, le matériel doit être bien plus performant que la technologie réseau conventionnelle, laquelle ne traite que les en-têtes. Tout cela a lieu pendant les brèves interruptions, lorsque les décisions sont prises concernant la suite de l’acheminement. Grâce aux connaissances obtenues avec le procédé Deep Packet Inspection, il est désormais possible d’ouvrir les autres couches pendant le même laps de temps et, en fonction, de modifier la décision (Królikowski 2014 ; Bar-Yanai et al. 2010). Les conditions générales de cette décision évoluent en fonction de la nouvelle technologie utilisée selon le lieu et le moment.
25Les acteurs intéressés par ces processus sont divers : les fournisseurs d’Internet utilisent cette technologie à des fins de gestion de la bande passante ou pour filtrer les spams, les fournisseurs de services payants pour facturer selon le volume consommé, la police s’en sert pour lutter contre la criminalité, les avocats de l’industrie du divertissement pour poursuivre les téléchargements illégaux et le secteur privé pour la création de publicités personnalisées. Utilisée dans les réseaux des entreprises pour le contrôle des données sortantes et dans une forme simplifiée dans les pare-feu et les filtres de spam, sans blocage d’adresses IP (Ingham & Forrest 2002), cette technologie représente également un outil couramment employé par les services secrets et peut servir d’arme dans la guerre électronique. Par exemple, en Chine, en Iran et en Turquie, la Deep Packet Inspection est utilisée pour analyser les recherches en ligne avec certains mots-clés ainsi que pour empêcher aux nœuds l’accès aux sites web tels que YouTube ou Twitter (Human Rights Watch 2014). En tant que division du Pentagone, la NSA utilise entre autres ces procédés pour sélectionner aux nœuds des fournisseurs les informations qui doivent être enregistrées et analysées (Bamford 2012). On pourrait même affirmer que les pratiques de la NSA et des autres services secrets n’auraient pas été possibles sans la Deep Packet Inspection, laquelle est au final à double tranchant : ce qui permet une distribution équitable des capacités permet également la surveillance et l’oppression. Chose encore plus problématique, les processus de Deep Packet Inspection permettent d’illustrer comment, malgré les différences, les débats autour de la neutralité des réseaux et de la surveillance par la NSA convergent sur un plan technique : dans les deux cas, on intervient pendant l’interruption des transmissions et donc dans la micro-temporalité des décisions.
26Grâce à la Deep Packet Inspection, une technologie ultra sophistiquée et avec une forte puissance de calcul, il est possible de lire les contenus des paquets de données ou d’en analyser les schémas et les fréquences d’un point de vue statistique avec la technique Statistical Packet Inspection ou Stochastic Packet Inspection, de les sélectionner, voire de les transmettre. Étant donné qu’il existe des méthodes de cryptage efficaces pour empêcher l’inspection des paquets (c’est-à-dire pour empêcher la lecture de leurs contenus), des processus ont été développés pour bloquer les ports individuels ou pour détecter, par l’analyse des schémas des paquets transmis et de leurs métadonnées, les différentes applications afin d’identifier, voire de bloquer certaines applications peer-to-peer qui utilisent beaucoup de bande passante et fréquemment utilisées pour les téléchargements illégaux. Lorsque de nombreux petits paquets sont envoyés à des intervalles réguliers, cela implique l’utilisation de la technologie VoIP ou l’utilisation continue de toute la bande passante avec une application peer-to-peer tandis que les emails ne circulent que de façon irrégulière (McKelvey 2010 ; Sietmann 2011 ; Sandvig 2007). Ces schémas peuvent être identifiés par l’analyse de données volumineuses, laquelle extrait des données et les évalue avec des algorithmes, et leur volume peut être limité avec des moyens techniques et leur cause identifiée. La popularité de ces systèmes est attestée par le fait que, depuis 2012, des standards pour l’échange de données entre les différents types de matériel ont été établis par le comité de l’International Telecommunication Union (2012), compétent en la matière.
27Ces procédés de Deep Packet Inspection sont implémentés depuis plusieurs années dans le matériel par divers fabricants. Cependant, compte tenu des ambiguïtés concernant la base juridique de leur utilisation, il est difficile d’obtenir des informations précises sur leurs principes fondamentaux. Comparé aux systèmes traditionnels de contrôle des nœuds des réseaux téléphoniques, la principale différence réside dans la capacité et dans la possibilité d’un traitement des données avec des méthodes d’analyse graphiques. Par exemple, le modèle phare du Serie Service Control Engines du fabricant de technologies de réseau Cisco, le SCE 10000, peut surveiller, suivre et gérer 20 millions de sessions simultanément de deux millions d’abonnés avec un débit maximum de 60 Go par seconde15. Les utilisateurs ne le remarquent même pas.
Avec cette plateforme, les fournisseurs peuvent identifier des contenus transportés avec n’importe quel protocole, fournir des analyses détaillées, contrôler des applications complexes basées sur des contenus et établir des priorités en temps réel. […] Avec cette architecture exclusive, haute performance et à états, les opérateurs disposent de meilleures capacités pour livrer toute une série de services personnalisés selon les besoins du client. (Cisco Systems 2014)
28Bien que ce texte publicitaire sur la page d’accueil de Cisco mette en avant les besoins des utilisateurs, dont le trafic doit être suivi et contrôlé, la situation s’est aggravée d’un point de vue juridique : le projet de loi aux États-Unis Stop Online Piracy Act (SOPA), rejeté en 2011, ainsi que le traité international Anti Counterfeiting Trade Agreement (ACTA), qui lui aussi a échoué sous la pression de l’opinion publique, auraient contraint les fournisseurs à utiliser ce matériel pour identifier les demandes de transmission de contenus protégés par les droits d’auteur et à réunir les adresses IP correspondantes (Halpin 2013 : 10). L’accès à des sites web jugés illégaux aurait donc été bloqué, la neutralité du réseau aurait été rompue, avec inscription dans la loi à l’échelle internationale.
29Comme le suggère Constanze Kurz (2011), du CCC, le matériel utilisé dans des pays comme la Turquie, la Chine, la Syrie ou l’Iran est bien plus puissant. Des centaines de documents que WikiLeaks a rendus publics sous le nom de The Spy Files, tout particulièrement des présentations de produit et des notices d’utilisation de sociétés de sécurité occidentales, montrent le potentiel de ces technologies pour le gouvernement de ces pays. En plus des technologies Deep et Statistical Packet Inspection, la possibilité, souvent intégrée dans les appareils, de créer des graphes entre les profils créés permet à ces technologies de retrouver les personnes et leurs réseaux (Lemke 2008). Par exemple, le système Eagle Glint, fabriqué par la société française Amesys, peut surveiller approximativement 4 To de données et calculer des profils à partir de ces informations (WikiLeaks 2011 ; Sonne & Gauthier-Villars 2012). En 2013, cinq activistes libyens ont poursuivi ces sociétés auprès de la justice française parce que cette technologie a été utilisée par le régime de Kadhafi pour leur arrestation, avec les actes de torture qui s’ensuivirent (FIDH 2013). Cependant, comme l’a expliqué Dietmar Kammerer (2015), le droit international ne prévoit aucune interdiction formelle d’exporter du matériel de surveillance et d’espionnage, d’autant plus que les services de renseignement occidentaux sont dépendants de ces technologies.
30Avec ce matériel, le procédé Deep Packet Inspection et les méthodes mathématiques de la théorie des graphes, il est devenu très simple de contrôler le trafic non crypté des particuliers de façon sélective afin d’identifier leurs amis et leurs alliés, voire parfois même de manipuler leur accès aux données. Il ne s’agit pas seulement de connaître le contenu des communications, mais aussi d’identifier leur destinataire, la durée de la communication, son origine et sa fréquence. Il arrive parfois que les métadonnées contiennent des informations bien plus importantes que le contenu du message, d’autant plus qu’elles peuvent être analysées dans des volumes importants, ce qui n’est pas le cas des contenus. Elles ne peuvent pas être cryptées. Au mieux, elles peuvent être cachées, par exemple avec un réseau Tor (The Onion Router), lequel rend les données de connexion anonymes16. La Statistical ou Stochastic Packet Inspection peut être effectuée même avec les paquets cryptés dont la couche inférieure du payload n’est pas accessible. Les technologies correspondantes interviennent là où sont établies les connexions entre les personnes, que ce soit par leur présence à un endroit localisable par des tours de transmission ou par leurs contacts en ligne17. La surveillance commence là où des connexions sont établies au moyen des interruptions nécessaires à la prise de décision, à savoir aux nœuds des réseaux. Ce processus a lieu pendant la durée de l’interruption.
31Cependant, ce n’est pas uniquement la terreur de ces régimes, mais aussi les efforts des fournisseurs pour transmettre toutes sortes de trafic à des vitesses différentes qui dépendent de l’analyse de métadonnées et des possibilités offertes par la Deep Packet Inspection : ce ne sera que lorsque les fournisseurs seront techniquement capables de distinguer entre des paquets de données ceux avec du texte ou de la vidéo qu’il sera judicieux d’accorder la priorité à ces dernières. Même si les fournisseurs et les services de renseignement n’ont pas la même définition des contenus, ils empruntent le même chemin pour parvenir à leur conclusion respective. Sans la technologie Deep Packet Inspection, il serait impossible d’établir des priorités. Comme l’a affirmé Lawrence Lessig, la nécessite du contrôle de la transmission des données n’entraîne pas nécessairement la mise en place d’un monopole secret et commercial de la transmission des données. Mais là où le contrôle est nécessaire, la surveillance est possible.
« Collecting it all »
32En termes de gestion du réseau, le contrôle est nécessaire pour le maintien du trafic, mais cela comprend la possibilité de la surveillance. D’un point de vue technique, la surveillance dans les réseaux numériques n’est souvent qu’un parasite qui découle de la nécessité de contrôles et qui perturbe la neutralité. Ainsi, les révélations du lanceur d’alerte Edward Snowden, alors âgé de 29 ans, à l’opinion publique mondiale apportèrent la preuve directe que, documents confidentiels à l’appui, les services secrets du monde entier essayaient, à grande échelle et sans indice d’activité terroriste ou criminelle et en l’absence de suspects, de mettre la main sur les paquets de données. Avec une politique sécuritaire malavisée, les données volumineuses deviennent un parfait allié de la société de contrôle, avec pour point commun les moyens techniques décrits ci-dessus18. Dans ce contexte, il n’est pas étonnant qu’un des slogans utilisés par Keith Alexander, ancien directeur de la NSA, était « Collecting it all » (repris par Greenwald 2014 : 79, d’après un rapport interne de la NSA). La population mondiale est donc systématiquement suspecte. La condition technique des activités de la NSA est la nécessité de décider de chaque paquet et donc d’un stockage provisoire. L’ampleur de la surveillance qui, à travers l’automatisation, dépasse de loin les mesures de la sécurité d’État de l’ancienne République démocratique d’Allemagne, est une conséquence de l’architecture des réseaux numériques. L’endroit de la prise de décision pendant la durée de l’interruption est la porte d’entrée principale où l’acte nécessaire du contrôle intervient côte-à-côte avec l’acte de surveillance.
33Même si les faits rendus publics à travers ces documents n’ont rien d’une révélation et même si Edward Snowden a sacrifié sa vie, comme l’a fait remarquer l’expert en sécurité informatique Sandro Gaycken (2013), juste pour apporter la preuve, presque superflue, d’un secret de Polichinelle, on ne saurait négliger leur importance. Au-delà des frontières et dans le monde entier, ces documents remettent en question la légitimité des institutions en cause. Même si tous savaient que la NSA avait pour objectif l’optimisation de la surveillance, la présence de logos de sociétés telles que Facebook, Google et Apple confère à cette entreprise un certain poids. On peut dès à présent affirmer que les révélations d’E. Snowden représentent un tournant pour les sociétés du xxie siècle. Le risque est que les chiffres placent la dimension politique au second plan, alors que les documents accessibles ne nous apprennent rien sur l’utilisation des technologies. La dimension politique de cette affaire va bien au-delà des débats sur la sphère privée – dont l’importance ne fait néanmoins aucun doute – et sur la sécurité que peut apporter WikiLeaks à ses informateurs (Steinmetz 2012). L’enjeu concerne surtout les déconnexions et les connexions au sein des communications ainsi que la constitution du social qui, à une époque où la surveillance est sans faille, repose sur de nouveaux fondements. En résumé de façon polémique, toutes les théories du complot sont vraies.
34Les pratiques de la NSA avaient déjà été décrites dans le détail en 1982 par James Bamford, dans son livre The Puzzle Palace et dans sa mise à jour successive The Shadow Factory (2008). Ces pratiques ont également été dénoncées par les lanceurs d’alerte Thomas Drake et William Binney, mais sans preuve à l’appui. En s’appuyant sur les travaux de J. Bamford, Friedrich Kittler (1986) faisait déjà référence à la technologie clandestine de la NSA. Malgré des réactions ambivalentes – des théories du complot à des menaces ouvertes en passant par l’indifférence19 –, les documents d’E. Snowden ont changé la donne et modifié de façon durable la confiance de toutes les parties prenantes. Leur principal mérite est d’avoir mis au grand jour l’importance des micro-décisions. La surveillance illimitée et la transparence totale, un objectif qui n’a connu pendant longtemps que des limites pratiques, potentialisent la puissance des décisions car elles perpétuent un déséquilibre dans les rapports de force : ceux qui exercent le contrôle de façon invisible décident également de ceux qui seront au courant de la pratique de la surveillance. Et ceux qui ne savent pas qu’ils sont suspectés ne peuvent pas protester.
35Les débats soulevés par E. Snowden s’inscrivent dans une convergence entre technologies de la sécurité et de l’information, encouragée par la loi aux États-Unis depuis les années 1970 et qui atteint son paroxysme avec l’arrivée d’Internet. En octobre 2014, lors d’un discours intitulé « Going dark: Are technology, privacy, and public safety on a collision course? » et prononcé face à la Brookings Institution, un des plus puissants think tanks des États-Unis, en réaction à la publication par E. Snowden des fameux documents, le directeur du FBI James Comey a expliqué les difficultés rencontrées par ses employés face à la rapidité des évolutions technologiques :
Nous avons l’autorité légale pour intercepter et accéder aux communications et aux informations conformément au mandat de la cour, mais nous ne disposons pas toujours des compétences techniques nécessaires. (Comey 2014)
36D’après lui, le défi consiste, dans la lutte contre la criminalité, en la difficulté de suivre les changements de voies de communication lorsqu’un suspect utilise en parallèle un téléphone fixe, la transmission mobile des données, la messagerie instantanée et la technologie VoIP. J. Comey demande par conséquent une discussion publique sur les avantages et les inconvénients du cryptage numérique. Il n’est pas étonnant qu’il ait prononcé son discours peu de temps après l’annonce d’Apple concernant l’intégration d’un cryptage dans les nouveaux modèles d’iPhone que, à en croire le fabricant, Apple même serait incapable de décrypter (Apple 2015). Il est également intéressant de remarquer qu’aussi bien J. Comey qu’Apple excluent les services en nuage de la sécurité par cryptage pour permettre aux gouvernements d’intervenir dans le contexte de la lutte contre la criminalité. D’après J. Comey, il conviendrait de se demander s’il est vraiment souhaitable qu’une grande partie de la communication soit cryptée car cela rend plus difficile la lutte contre la criminalité et entraîne des coûts importants. Ici, la chose publique s’oppose à la protection de la sphère privée : « On risque d’entraver le travail de la justice à cause d’un téléphone verrouillé ou d’un disque crypté » (Comey 2014). Le débat lancé par J. Comey s’inscrit dans le contexte de la loi Communications Assistance for Law Enforcement Act (CALEA), votée en 1994 pendant la présidence de Bill Clinton. D’après cette loi, tous les fournisseurs aux États-Unis de services de communication et de « capacités de génération, acquisition, stockage, transformation, traitement, récupération, utilisation ou mise à disposition d’informations au moyen de télécommunications » (US Congress 1994) sont tenus d’intégrer dans leurs offres ou leurs appareils des possibilités de surveillance de la communication pour d’éventuelles perquisitions policières. En Allemagne, l’article 110 de la loi sur les télécommunications oblige les fournisseurs à collaborer aux poursuites légales. Le but de la loi américaine est de « clarifier les obligations des entreprises de télécommunications à coopérer dans le cadre de l’interception de communications à des fins d’application de la loi et à d’autres fins » (ibid.). La dernière partie de la phrase laisse une grande marge d’interprétation. Outre les fournisseurs de services de téléphonie et Internet classiques, cette loi a été complétée pour inclure les fournisseurs de services VoIP. Dès le niveau matériel, ils doivent adapter au maximum leurs services pour faciliter la surveillance d’éventuels criminels par les institutions étatiques, sous réserve d’un mandat judiciaire à l’encontre de l’utilisateur. Les fournisseurs américains ne peuvent donc utiliser que des routeurs et des serveurs qui, d’un point de vue technique, permettent la surveillance. Cela n’implique pas forcément une compatibilité avec la Deep Packet Inspection, mais au moins avec les procédés d’écoute traditionnels. Cependant, techniquement, la Deep Packet Inspection simplifie les tâches de surveillance.
37Dès 2007, tout le monde savait que le FBI, sous le nom de Digital Collection System Network (DCSNet), pouvait s’appuyer sur cette loi pour surveiller toutes les communications téléphoniques de criminels potentiels aux nœuds des prestataires de services téléphoniques. Cependant, seules les connexions et les métadonnées peuvent être enregistrées, les contenus de la communication ne pouvant être surveillés (Singel 2007). En 2010, une extension du champ d’application de cette loi a été bloquée. Celle-ci aurait forcé les fournisseurs de services Internet tels que Facebook ou Google à intégrer la possibilité d’une surveillance institutionnelle dans leurs services de messagerie, même s’il s’est avéré plus tard que ces mêmes entreprises transmettaient leurs données à la NSA (Savage 2013).
38En résumé, cela signifie que la possibilité de la surveillance doit être intégrée dans le matériel et les logiciels. Cependant, comme le souligne J. Comey, le FBI ne parvient pas à suivre les innovations techniques. Le cryptage pose problème aux législateurs, entre autres parce que la coopérativité des fournisseurs ne répond pas toujours à leurs attentes : « J’aimerais que les gens comprennent que les forces de police ont besoin d’accéder aux communications et aux informations pour que la justice puisse faire son travail » (Comey 2014). La sécurité et la protection de la sphère privée que certains fournisseurs vendent à leurs clients est un frein à la lutte contre la criminalité. Le cryptage ne serait légitime que s’il existait une petite porte permettant au FBI d’intercepter légalement. Cependant, on tait le fait que cette porte pourrait être utilisée à des fins moins honnêtes que les intérêts du FBI. Ainsi, seulement quelques jours après le discours de J. Comey, la Electronic Frontier Foundation (EFF), qui défend les droits des citoyens à l’ère numérique et joue un rôle important dans les débats autour de la neutralité des réseaux, a appelé le FBI à prendre la question au sérieux et à garantir plus de sécurité pour tous au lieu d’inviter les fournisseurs à affaiblir cette sécurité (C. Cohn 2014). En 1993, pour contrôler les transactions en ligne, l’administration de Bill Clinton avait déjà essayé d’introduire un cryptage standard pour tous les appareils en réseau, ce qui aurait également permis d’identifier clairement toutes les parties prenantes20. Cependant, l’algorithme Skipjack utilisé dans les puces Clapstone et Clipper, installées dans les appareils en réseau, aurait permis aux autorités, malgré le cryptage, de surveiller les échanges de données. La promesse était la suivante : nous assurons votre sécurité si vous nous accordez l’exclusivité du contrôle de votre sphère privée. La clé permettant d’accéder aux appareils cryptés serait détenue non seulement par l’utilisateur, mais aussi dans une base de données étatique consultable uniquement sur mandat judiciaire. Finalement, ce projet a échoué face à la pression publique et à l’opposition des fabricants qui craignaient de perdre leurs marchés à l’étranger. Pourtant, la NSA a récupéré cette idée sans aucune base juridique, sous prétexte de guerre contre le terrorisme. J. Comey relance un débat qui remonte aux années 1980. Il explique à quel point le scepticisme du gouvernement n’a guère évolué sur la question du cryptage, mais montre également les mesures importantes mises en place depuis, rien que par le FBI, pour une surveillance décryptée.
39L’enjeu de ce débat va bien au-delà de la simple demande de meilleures conditions de travail pour les enquêteurs. Conformément à la loi CALEA, un fournisseur n’a pas la responsabilité de décrypter le cryptage mis en place par l’utilisateur, celle-ci incombant aux autorités pénales. Concrètement, d’après J. Comey, les fournisseurs seraient à l’avenir obligés d’arrêter de traiter le trafic crypté avec le procédé Deep Packet Inspection, tel que Pretty Good Privacy (PGP). Il s’agirait tout simplement d’empêcher le cryptage pour perturber les activités de ceux qui auraient quelque chose à cacher.
40Cependant, outre les inconvénients économiques de l’introduction de cette loi pour les fournisseurs américains, les failles de l’argumentation de J. Comey sont évidentes : comment envisage-t-il de sécuriser les échanges de données du FBI ? Exiger l’imposition d’une barrière technique qui empêcherait le cryptage semble être tout aussi naïf que dangereux pour ceux qui, pour de bonnes raisons, ne pourraient pas protéger leur trafic, à commencer par les banques, les activistes pour la défense des droits de l’homme ou les policiers. La proposition de James Comey fait indirectement le reproche d’entraver le travail de la justice à ceux qui utilisent des procédés de cryptage dans le but de se protéger contre la NSA et des groupes avides de données, à des fins de protection de leur sphère privée et non pas pour dissimuler des activités criminelles. La prochaine étape de ce scénario, tout à fait plausible, serait la mise hors la loi des personnes qui refuseraient de collaborer avec la NSA ou le FBI, ainsi que la révélation de leurs activités.
41Même s’il faut se garder de placer le FBI au même niveau que la NSA, l’argumentation de J. Comey fait clairement ressortir les risques que représente la puissance d’État pour la neutralité des réseaux. Ses propos s’alignent sur les pratiques de la NSA qui, pendant longtemps, ne s’est pas sentie concernée par les limites imposées au FBI. À la différence du FBI, l’objectif de la NSA est cependant de récolter toutes les données disponibles indépendamment de toute disposition légale afin de lutter contre le terrorisme dans le monde entier, mais aussi de faire de l’espionnage économique selon les indices dont elle dispose et de mettre en place des écoutes à des fins politiques. Contrairement au FBI, les services secrets définissent eux-mêmes l’identité des opposants au Gouvernement. Cependant, le principal problème de la NSA n’est pas le cryptage, mais le stockage de volumes de données considérables étant donné « le volume, la rapidité et la variété » (Bamford 2008 : 331). Dans sa première interview avec les journalistes Laura Poitras, Glenn Greenwald et Ewen MacAskill de juin 2013, Edward Snowden fait le constat suivant :
Elle [la NSA] les ingère par défaut. Elle les collecte dans son système et les filtre et les analyse et les mesure et les enregistre pendant une certaine durée, tout simplement parce que c’est le moyen le plus simple, efficace et précieux de parvenir à ses fins. (Greenwald, MacAskill & Poitras 2013)
42Quelques jours avant cette interview, au cours de laquelle E. Snowden – qui avait travaillé comme analyste d’infrastructures auprès de la société Booz Allen Hamilton, alors cliente de la NSA, jusqu’au moment de son entrée en clandestinité – s’identifie comme lanceur d’alerte, le journal britannique The Guardian publie un premier document du fonds de 200 000 fichiers : une directive de la Foreign Intelligence Surveillance Court qui a été mise en place après que des activistes pour les droits civiques et des pacifistes ont été surveillés de façon abusive dans les années 1970, pour autoriser ces mesures et devenir le bras droit de la NSA21. Jusqu’en 2012, sur 20 000 dossiers, cette cour n’a rejeté que onze requêtes (Greenwald 2014 : 95). Dans le premier document rendu public, le fournisseur Verizon reçoit l’ordre suivant, ironiquement avec la consigne (un peu à la façon d’un en-tête, placé au-dessus du texte) TOP SECRET// SI//NOFORN22, à savoir uniquement à l’attention des services de renseignement et de personnes de nationalité américaine :
Par la présente, l’ordre est donné au service des archives de fournir à la National Security Agency (NSA) un exemplaire électronique des éléments tangibles suivants sur une base quotidienne et pendant la durée de ce mandat, sauf mention contraire de la cour : la liste de tous les appels ou les métadonnées de téléphonie créées par Verizon relatives aux communications (i) entre les États-Unis et l’étranger ; ou (ii) à l’intérieur des frontières des États-Unis, y compris les appels locaux. […] Aucune personne ne devra révéler à qui que ce soit que le FBI ou la NSA a cherché à obtenir ou a obtenu des éléments tangibles dans le cadre de ce mandat […]23.
43La date de déclassification est précisée en bas de la première page du document : 12 avril 2038. Pour protester contre un ordre secret comme celui-ci, on ne peut s’adresser qu’à un tribunal secret, ou ne rien faire24 ! La suite des révélations d’E. Snowden répond à une stratégie de mise en scène savamment orchestrée : un jour après la révélation à l’opinion internationale qu’un des principaux fournisseurs d’accès Internet des États-Unis est tenu de transmettre toutes les données de connexion à la NSA, c’est le tour d’une triste présentation PowerPoint interne à des fins de formation au programme d’espionnage Planning Tool for Resource Integration, Synchronisation and Management (PRISM). Dans ce document figurent des sociétés comme Microsoft, Yahoo, Google, Facebook, PalTalk, YouTube, Skype, AOL et Apple, dont les données de serveur sont régulièrement collectées. Comme l’expliquent les diapositives de la présentation, la NSA a accès à tous les processus de ces plateformes, aux contenus enregistrés et aux conversations VoIP (Electronic Frontier Foundation 2013). Les révélations qui suivent concernent le logiciel XKeyscore, qui permet d’afficher en direct la navigation Internet d’un usager, et l’obligation imposée par la loi CALEA aux fournisseurs de partager avec la NSA les données récoltées. Dans une interview accordée à la station de radio allemande Norddeutschen Rundfunk, Edward Snowden décrit le fonctionnement du programme :
Vous pouviez lire les mails de n’importe qui dans le monde entier, à condition de disposer de l’adresse mail. N’importe quel site web : vous pouviez consulter le trafic entrant et sortant. N’importe quel ordinateur en cours d’utilisation : vous pouviez suivre n’importe quel ordinateur portable, ses déplacements partout dans le monde. C’est un guichet unique pour accéder aux informations de la NSA. (Mestmacher-Steiner 2014)
44Dans les semaines qui ont suivi, de nouveaux documents ont été publiés, révélant la portée de la surveillance et de l’espionnage non seulement par la NSA, mais aussi par les services secrets britanniques GCHQ (Government Communications Headquarters) et son programme Tempora, ainsi que par les services secrets de presque toutes les nations industrielles occidentales. L’objectif est la dissolution systématique de la sphère privée dans les réseaux numériques. D’après des informations publiées par la NSA afin de temporiser l’ampleur des révélations, la NSA ne contrôlerait que 1,6 % des 1 826 Po transmis quotidiennement, à savoir les 29 Po envoyés par câbles sous-marins. Parmi ces données, seulement 0,025 % sont analysées, ce qui correspond à 0,00004 % du trafic mondial des données (National Security Agency 2013). Cependant, quand on soustrait du trafic mondial tous les services peer-to-peer ainsi que le streaming vidéo, on se rend compte que 1,6 % du reste est loin de représenter un volume négligeable. Et si le stockage est sélectif, si les pages visitées à plusieurs reprises ne sont pas enregistrées et si on ignore les images, on peut tout à fait s’imaginer que ces 1,6 % du trafic total comprend presque la totalité des emails envoyés en une journée25. Le programme « NSA Monstermind », dont E. Snowden parle dans une interview avec J. Bamford, est censé filtrer tout le trafic Internet entrant aux États-Unis pour parer aux cyberattaques et détecter les schémas suspects tels que les attaques Distributed Denial of Service (DDoS) (Bamford 2014).
45Il n’a pas encore été question des métadonnées. D’après le Wall Street Journal, d’autres sources parlent de 75 % des métadonnées de tous les trafics aux États-Unis, voire de 80 % de toutes les conversations téléphoniques (Gorman & Valentino-DeVries 2013 ; Loewenstein 2014). Conformément à des documents des archives d’E. Snowden, 5 milliards d’enregistrements de plusieurs centaines de millions d’appareils mobiles sont captés chaque jour rien que sur les réseaux de téléphonie mobile, permettant ainsi de localiser les usagers (Gellman & Soltani 2013). Il n’y a donc rien d’étonnant à ce que la NSA soit parvenue, pour chaque suspect, à surveiller trois « degrees of separation », à savoir trois niveaux de séparation par rapport à la personne cible. Ainsi une personne avec cent contacts permettra l’identification de milliers de contacts potentiels. Même si cela se limitera à l’avenir à deux « degrees of separation », ce chiffre reste indéfiniment élevé (Bauman et al. 2014 : 125).
46Le degré d’efficacité des « secretive systems of suspicionless surveillance » de la NSA dont parle le journaliste Glenn Greenwald (2014 : 8) reste sujet à controverse. Malgré la critique massive de l’opinion publique et indépendamment de toute une série de rapports et de la résolution de l’ONU, défendue par le Brésil et l’Allemagne pour garantir la protection de la sphère privée comme fondement de la démocratie, la poursuite de ces activités de surveillance et la fonctionnalité concrète des programmes restent inconnues (Human Rights Council 2014)26. Une chose est sûre : tout trafic doit passer par des nœuds, lieux où sont prélevées les informations. Il se peut que le volume considérable de données et que les problèmes de stockage qui en découlent aient empêché les 30 000 employés internes et les 60 000 employés externes de la NSA d’enquêter sur les activités terroristes, alors que dans le cadre de cette même lutte, des droits civiques et le droit international ont été bafoués27. Les mesures de surveillance de la NSA devraient certes se limiter aux étrangers, mais compte tenu de la mise en réseau mondiale des flux de données, cette limitation semble quasiment impossible. Il semble donc que les principaux besoins de la NSA portent non pas sur des outils de surveillance plus puissants, mais sur l’augmentation de la mémoire de stockage, chose prévue avec le nouveau centre de stockage et de traitement Mission Data Repository à Bluffdale (Utah), sur une surface de plus de 100 000 m² pour un volume pouvant atteindre 12 Eo (exaoctets)28. À en croire les chiffres publiés par la presse, cela représenterait 2 Go pour chaque habitant de la planète.
47Les révélations d’Edward Snowden soulèvent des questions qui dépassent le cadre de cette étude. Elles concernent l’identité de tous ceux qui naviguent sur Internet en qualité de citoyens et de démocrates et oscillent entre colonisation de l’espace privé et une évolution du rôle de la presse. Il n’est pas étonnant que le premier message anonyme d’E. Snowden à G. Greenwald ait été une demande de mise en place d’un cryptage PGP pour sa correspondance par email pour qu’il puisse lui envoyer des documents secrets, une demande que G. Greenwald, par paresse, tarde à remplir pendant des mois et qui aurait presque arrêté les alertes d’E. Snowden (Greenwald 2014 : 10)29.
48Le débat autour de ces questions ouvertes et des défis pendant longtemps ignorés devrait tenir compte du fait que, depuis l’arrivée d’Internet, la relation de l’État avec ses citoyens a énormément évolué, parallèlement à la « guerre contre le terrorisme », et que non seulement la vie des citoyens est devenue transparente aux yeux de l’État, mais aussi l’État lui-même, en raison des activités de WikiLeak et des lanceurs d’alerte tels que Edward Snowden. On peut néanmoins se poser la question de savoir dans quelle mesure cette relation est compatible avec des modèles politiques classiques30.
49Sous le titre After Snowden: Rethinking the Impact of Surveillance, des politologues et des sociologues rassemblés autour de Zygmunt Bauman tentent de saisir la portée des révélations pour la sociologie tout en essayant d’établir un nouveau cadre théorique en raison des difficultés que présente cette nouvelle situation :
Nous restons perplexes face à des phénomènes qui sont organisés ni horizontalement, à la façon d’un ensemble international d’États plus ou moins souverains et territorialisés, ni verticalement selon un schéma hiérarchique. Relations, lignes de fuite, réseaux, intégrations et désintégrations, contractions et accélérations spatiotemporelles, simultanéités, renversements d’internalité et d’externalité, des frontières de plus en plus évasives entre l’inclusion et l’exclusion ou entre légitimité et illégitimité : l’importance croissante de ces termes et d’autres notions similaires suggèrent que de nouvelles ressources conceptuelles et analytiques font cruellement défaut. (Bauman et al. 2014 : 124)
50Ce collectif d’auteurs s’efforce de travailler en-dehors des schémas narratifs habituels de la surveillance par Big Brother, lesquels sont uniquement axés sur le fait que les nouvelles technologies permettent une surveillance plus précise. Au contraire, ils essaient de faire ressortir ce processus social où les services secrets sont devenus des acteurs politiques à part entière, avec leurs propres objectifs. Cette approche permet de mettre en évidence l’évolution des pratiques de services secrets que nous connaissons : des interdépendances au-delà des frontières, une nouvelle définition des rôles, des partenaires à la fois alliés et antagonistes, une apparition de problèmes de jurisprudence nationale lorsque par exemple les services secrets allemands demandent à la NSA des données qu’ils n’ont pas le droit de rassembler eux-mêmes – et vice versa – et l’instrumentalisation de soi-disant partenaires par la NSA. Big Data fait fi des frontières.
51Résultat : premièrement, nous sommes passés d’une « forte certitude sur une faible quantité de données à une forte incertitude sur un volume de données important » (Bauman et al. 2014 : 125), deuxièmement les surveillés collaborent avec la surveillance à travers la publication volontaire et intégrale des données privées sur Internet et, troisièmement, nous assistons à l’émergence des formes d’une subjectivité où chacun est suspect et où les relations sociales deviennent des marchandises. Parallèlement à l’autonomisation des services secrets, l’alliance entre la surveillance et la sphère privée a modifié le lieu d’épanouissement des sujets car leurs relations avec les autres sujets sont devenues précieuses, négociables et modifiables. Les régimes de la surveillance entraînent l’apparition de nouveaux modes de subjectivation qui sont également concernées par les micro-décisions.
La fin d’Internet
52Après Edward Snowden, Internet ne devrait plus être comme avant. Cependant, cet avenir est également menacé d’un autre côté (une menace qui a d’ailleurs toujours existé). Le troisième facteur qui explique l’intensité des débats actuels est la crainte d’une fin du World Wide Web (Riley & Scott 2009). Pour marquer le trait, nous pourrions avancer que si la suppression de la neutralité des réseaux devient la règle, des parties d’Internet qui étaient jusqu’alors libres d’accès pour les utilisateurs de certains fournisseurs pourraient ne plus l’être, ce qui, dans l’absolu, différerait à peine de la situation en Chine, où Google et YouTube sont bloqués avec les procédés techniques mentionnés précédemment. Le danger, c’est qu’Internet ne soit plus identique pour tous les utilisateurs dont l’usage serait fonction du contrat ou des pratiques du fournisseur ou du gouvernement. Pour reprendre les termes, très pertinents, de Tim Berners-Lee :
Si nous, les utilisateurs du Web, nous laissons ces tendances avancer sans aucun contrôle, le Web pourrait être fragmenté en une série d’îlots. Nous perdrions alors la liberté de nous connecter avec n’importe quel site. (Berners-Lee cité par Whitney 2010)
53C’est précisément dans ce contexte que les révélations d’E. Snowden nous intéressent. Les écoutes téléphoniques pendant la guerre froide ou la lecture du courrier par les services secrets depuis des décennies n’ont pas remis en question ces modes de communication31. Pourtant, étant donné que presque toutes les voies de communication passent par les serveurs et les routeurs, la dimension de la surveillance en ligne met en cause cette architecture même. Pour reprendre les termes de Sascha Lobo (2014) : « Internet ne fonctionne plus. » Pour S. Lobo, un Internet intact doit rester libre, neutre et ouvert, mais il ne répond pas à la question de savoir à quoi ressemblerait un Internet non neutre, surveillé et fermé.
54En novembre 2014, la Maison-Blanche publie sur YouTube un court discours de Barack Obama où, pour la première fois, le président se prononce clairement en faveur de la neutralité des réseaux. Il appelle la Federal Communications Commission (FCC), fondée en 1934 pour réguler tout type de transmission, à garantir dans sa réglementation la neutralité inconditionnelle de tous les paquets de données et à ne pas entraver la fonction démocratique et économique de cet « écosystème foisonnant d’appareils numériques, d’applications et de plateformes à la base de la croissance et facteur d’opportunités » (The White House 2014). « Tant que je serai président, je ne cesserai de défendre cette position » (ibid.). Le contexte de la demande de B. Obama est une décision prise en 2005 pour que les fournisseurs soient considérés comme des services d’information et non pas comme des services de télécommunication, lesquels sont moins réglementés. B. Obama fait remarquer que cette définition est caduque et qu’à l’avenir, les fournisseurs doivent être considérés comme des prestataires de services de télécommunication qui remplissent des fonctions importantes pour la société et qui doivent par conséquent être soumis à une plus forte surveillance. D’après la position de Tim Wu, les télécommunications doivent être considérées comme un bien commun au service de la société et qui ne doit pas être soumis à des intérêts privés (Scola 2014).
55Aussi remarquables et importantes que soient les déclarations de Barack Obama pour le débat sur la neutralité des réseaux en tant que première prise de position officielle d’un gouvernement en faveur d’une neutralité inconditionnelle, elles montrent également à quel point il est important de ne pas dissocier la neutralité des réseaux et la thématique de la surveillance. En effet, malgré le caractère inconditionnel de cette position, la neutralité exigée par le lauréat du prix Nobel de la paix ne saurait exister pleinement, si ce n’est pour des raisons juridiques : la surveillance à des fins de lutte contre la criminalité et l’utilisation du matériel nécessaire à la gestion des réseaux restent d’actualité et ne sauraient être remises en question. Sous l’administration d’Obama, les prérogatives de la NSA ont été élargies. Chaque groupe de données passe sous le contrôle de la NSA, qui doit décider de sa distribution, rendant ainsi nécessaire son interruption. Ce créneau est l’espace vital de la NSA. Ou pour reprendre la prophétie de Freidrich Kittler de 1986 : « La NSA comme point de rencontre de la stratégie et de la technique serait de la pure information » (Kittler 1986). L’affaire Snowden représente un tournant dans les débats sur la neutralité des réseaux.
56Seulement quelques jours après la déclaration d’Obama, les Républicains bloquèrent au Sénat la réforme de la NSA proposée par le gouvernement démocrate sous le nom de USA Freedom Act et qui avait reçu le soutien massif des fournisseurs d’accès et des prestataires de services de télécommunication (Ackerman 2014). Cette loi aurait mis fin à la surveillance massive de métadonnées et fortement limité des programmes tels que PRISM. Les données auraient continué d’être stockées pour une durée de dix-huit mois, mais la NSA n’y aurait eu accès qu’avec la preuve de leur utilité dans le cadre d’une enquête ou pour l’évitement d’un acte terroriste. Le 4 décembre 2014, seulement quelques jours après le blocage au Sénat, Angela Merkel annonce au sommet Digitizing Europe que son gouvernement apportera son soutien à un Internet à deux vitesses : un Internet novateur, cela signifie que
les services de sécurité puissent bénéficier d’une certaine sécurité. […] C’est pourquoi nous avons besoin des deux, d’un Internet libre et d’un Internet sûr réservé aux services spéciaux. (Merkel 2014)
57Cependant, la liberté sur Internet ne saurait se quantifier. En revanche, le discours d’Obama a été entendu par la FCC : en février 2015, les autorités ont opté pour la neutralité des réseaux et ont publié un ensemble de règles en guise de garantie.
58Augmentation du volume de données, possibilités offertes par la Deep Packet Inspection et menace de non-accessibilité à des parties d’Internet : ces trois éléments montrent que le débat sur la neutralité et sur la surveillance concerne certains défis centraux auxquels sont confrontées les cultures numériques. Tous tournent autour du rôle des micro-décisions. Pour comprendre les enjeux de ces micro-décisions, dans quel cadre, à quels endroits et à quels moments elles sont prises et comment elles peuvent être mises au service de certains intérêts, il est nécessaire de se plonger dans l’architecture technique de la transmission des données. Ou, pour reprendre les termes de l’informaticienne Agata Królikowski (2014 : 158) :
La différence entre observer et intervenir, entre bloquer une information, la retarder ou l’acheminer est une simple question de réglage technique dans le logiciel, qui peut être modifié à tout moment.
59Finalement, pour ouvrir une autre perspective qui nous servira de transition vers le chapitre suivant, tout cela peut être reformulé sous l’angle de la théorie des médias : le principe End-to-End libère la communication et le message transmis d’une surveillance potentielle en ajoutant une interruption pendant laquelle est traitée la transmission des paquets avec un protocole indifférent au contenu. Étant donné que la transmission ne suit aucune connexion directe entre un point A et un point B, mais s’effectue par une série de nœuds, avec la possibilité de plusieurs connexions possibles, l’interruption ouvre un créneau au contrôle. Cette interruption est ambivalente dans la mesure où elle sert au transport des données sans entraves tout en représentant le point de départ technique de la surveillance du trafic moyennant mise en réseau. De ce point de vue, la neutralité du réseau aboutit à une communication sans entraves dont l’absence de barrière tient au fait qu’elle est arrêtée à chaque nœud. L’interruption est inscrite dans la transmission. Il y a interception entre l’émetteur et le récepteur. Comme la lecture de la théorie des réseaux de Paul Baran permettra de le constater, c’est précisément à ce point – descriptible avec les notions de la théorie de la communication de Claude Shannon – que la signification et la possibilité de la communication dans les réseaux numériques peuvent être négociés à travers les micro-décisions. C’est également à cet endroit que la portée ou la dimension des micro-décisions sont cachées par les fantasmes d’une transmission indirecte et instantanée, qui se passerait du temps et qui serait toujours déterminée en avance.
Notes de bas de page
1 À l’exception des réflexions de Sebastian Gießmann (2015), Dietmar Kammerer (2015), Johannes Paßmann (2014) et récemment de Grégoire Chamayou (2015), rares sont les théoriciens des médias à s’être prononcés sur la question. Ceci est surprenant car au-delà de l’importance de ces débats dans l’actualité politique, ils présentent un grand intérêt théorique. En effet, ils permettent de redéfinir des concepts centraux tels que la surveillance, le contrôle, la communication ou la transmission et d’en effectuer la mise à jour pour le xxie siècle. Ces concepts montrent dans quels débats actuels peut intervenir la théorie des médias selon une approche historique et fait ressortir son potentiel pour la critique politique.
2 Voir Galloway (2004 : 41) et pour une introduction Bunz (2008).
3 Pour plus d’informations techniques sur les différents niveaux de protocole, consulter l’introduction publiée par Jürgen Plate (2004).
4 Cependant, certains fournisseurs d’accès ont annulé la neutralité du hardware au moyen de routeurs obligatoires. Animés par des considérations commerciales, ils n’autorisent certains modèles et n’activent certaines fonctions qu’après le paiement d’une redevance. Il est évident que l’ouverture à divers équipements informatiques était dès le début motivée par des intérêts économiques.
5 Avant d’enseigner à la Columbia Law School, Tim Wu était employé d’une entreprise de Deep Packet Inspection (inspection de paquets en profondeur). En 2014, il s’est présenté à l’élection du lieutenant-gouverneur de New York (Wu 2009).
6 Voir Krämer, Wiewiorra & Weinhardt (2013) ainsi que Martini (2011) pour un aperçu des questions économiques et juridiques. Il est remarquable cependant que l’importance de la question de la surveillance par inspection des paquets en profondeur ne soit pas abordée dans ces textes.
7 La transmission de la voix – sur laquelle je reviens plus tard dans cet essai – connaît de fortes variations de la qualité parce qu’elle ne tolère ni retards (latence) dans la transmission, ni irrégularités dans les séquences de paquets entrants (gigue), en atteste la variabilité de la qualité des conversations sur Skype. La transmission de la voix et d’images animées est davantage dépendante d’une gestion structurée du temps dans la qualité du rendu.
8 Pour des informations sur la dimension juridique et politique de ces évolutions, consulter le rapport provisoire du groupe de projet Neutralité des réseaux de la commission d’enquête Internet et Société numérique de février 2012 (Deutscher Bundestag 2012). En s’aidant de la méthodologie des Science and Technology Studies, Sebastian Gießmann a étudié les coopérations qui, dans le cadre de ce comité, revendiquent la neutralité des réseaux et des mesures politiques pour le développement des infrastructures.
9 Cette loi a été suggérée à la fin des années 1980 par Robert Metcalfe, mais ne fut formulée définitivement qu’en 1993 par George Gilder (2000).
10 Mon attention ne se porte que sur les débats qui ont eu lieu en Europe occidentale et en Amérique du Nord. Pour une comparaison internationale, voir Bertschek et al. (2013).
11 Cette métaphore est bien sûr tout sauf innocente car annonciatrice d’un système de péage.
12 Voir Blumenthal & Clark (2001). Certains envisagent également pour les services de streaming d’abandonner la commutation de paquets et de revenir à la transmission par câble, laquelle ne s’effectue pas avec des paquets individuels sur divers nœuds, mais avec une seule connexion, ce qui représente une économie d’énergie et une diminution de la durée de traitement (Sietmann 2011).
13 Pour la différenciation des différents procédés et de leurs bases juridiques, voir Bedner (2009). Pour les avantages et les inconvénients de la Deep Packet Inspection dans la gestion des réseaux, voir Bärwolff (2009).
14 Décision du Deutscher Bundestag (2012).
15 Sur le marché de l’occasion russe, il est possible de se procurer ces appareils, non disponibles sur le marché libre, pour environ 150 000 $ (UsedCisco.info 2015).
16 Dans le réseau développé par la US Naval Research, le trafic est acheminé via diverses stations intermédiaires réparties dans le monde entier, ce qui rend son identification presque impossible. D’autre part, le trafic s’en trouve ralenti, ce qui perturbe les services sensibles au facteur temps.
17 En 2010, l’informaticien Jens-Martin Loebel a tenu un « Journal d’un autoenregistreur » expérimental dans lequel il notait toutes ses données GPS. D’après Loebel (2011), les données de seulement quelques semaines permettent de faire des constats extrêmement justes sur son comportement, à savoir sa présence à certains lieux et à certains moments.
18 Pour plus d’informations sur E. Snowden, lire Lyon (2014) et la collection d’articles de presse et d’entrées de blog dans Beckedahl & Meister (dir. 2014), qui étudient les dimensions sociales et politiques, mais ignorent les aspects technologiques.
19 L’ancien directeur des services secrets britanniques, Nigel Inkster, a essayé de relativiser l’importance des révélations d’E. Snowden pour les renseignements (Inkster 2014).
20 Pour les débats sur le cryptage et le décryptage, les soi-disant Cryptowars, qui ont eu lieu aux États-Unis au milieu des années 1990, voir Engemann (2015). Pour l’histoire du cryptage et de leur conflit avec l’État, voir Diffie & Landau (2010).
21 Nous ne pouvons pas ici approfondir les révélations d’E. Snowden. Pour une mise en contexte plus détaillée, voir Landau (2013 et 2014). Sur le rôle d’E. Snowden comme lanceur d’alerte, voir Scheuerman (2014).
22 Informations issues de sources et de méthodes liées aux activités de renseignement. Voir <https://fr.wikipedia.org/wiki/Information_classée_secrète>. Ce document est disponible en annexe à cet ouvrage.
23 « Verizon forced to hand over telephone data – full court ruling », The Guardian, le 6 juin, disponible sur <http://www.theguardian.com/world/interactive/2013/jun/06/verizon-telephone-data-court-order> [consulté le 19/01/2015].
24 Le rôle nouveau des renseignements dans les cultures numériques a été décrit dans le détail par Beyes & Pias (2014).
25 D’après les calculs du juriste Edward W. Felten dans une expertise judiciaire, les métadonnées de 3 milliards d’appels quotidiens aux États-Unis représentent, avec environ 50 octets par appel, un volume total de 140 Go par jour et 50 To par an, ce qui peut être enregistré sur quelques disques durs traditionnels. Ces données sont justement celles sur lesquelles porte la décision de justice mentionnée concernant Verizon (United States District Court, American Civil Liberties Union [...] vs. James R. Clapper, Case No 13-cv-03994 (WHP), Document 27, le 26 août 2013 : Declaration of Professor Edward W. Felten, disponible sur <https://www.aclu.org/files/pdfs/natsec/clapper/2013.08.26 ACLU PI Brief - Declaration - Felten.pdf> [consulté le 19/01/2015]).
26 Pour le rapport NSA commandé par l’administration des États-Unis, voir Clarke et al. (2014).
27 Pour plus d’informations sur ces chiffres, voir Greenwald (2014 : 76).
28 12 Eo (exaoctets) équivalent à 12 000 Po (pétaoctets), 12 000 000 To (téraoctets) ou 12 000 000 000 Go (gigaoctets). 400 To suffisent pour stocker tous les livres écrits par l’humanité. 300 Po suffisent pour stocker toutes les conversations téléphoniques menées au cours d’une année aux États-Unis (Hill 2013).
29 Pour un guide complet sur la mise en place de PGP et des informations supplémentaires sur le cryptage, consultez <http://ssd.eff.org/>.
30 Dans son ouvrage sur la NSA, Bernhard H. F. Taureck a décrit la NSA comme une « démocratie de la surveillance » parce qu’à une époque post-séculaire, la NSA joue de plus en plus le rôle d’une religion. Cet essai souligne l’évolution, du point de vue du droit constitutionnel et public, de l’appareil d’État vers ce que B. Taurek appelle la monitorcratie. Sa fonction réside dans le fait que le savoir des services secrets est « quatre cent fois supérieur » (Taureck 2014 : 10) à celui de l’humanité. L’origine de ce chiffre n’est pas claire et on peut se demander si le savoir de l’humanité (en supposant qu’il s’agit du volume de stockage de tous les textes écrits) peut être comparé avec les informations rassemblées par la NSA. Il semble au contraire que l’auteur se trompe de catégorie et oublie de thématiser l’émergence du numérique, avec toutes ses conséquences. Malgré la qualité de la description de la situation politique, son argumentaire ne tient pas compte des pratiques concrètes de la NSA et, par exemple, ne fait pas la différence entre les données et les métadonnées. De ce point de vue-là, rien d’étonnant à ce que le cryptage comme contre-stratégie ne soit pas retenu.
31 Sur les écoutes téléphoniques, voir Rieger (2008).
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Ouvrir, partager, réutiliser
Regards critiques sur les données numériques
Clément Mabi, Jean-Christophe Plantin et Laurence Monnoyer-Smith (dir.)
2017
Politique des micro-décisions
Edward Snowden, neutralité des réseaux et architecture Internet
Florian Sprenger Jeanne Innocenti (trad.)
2017