Qui dirige Internet ?
La réponse à cette question se trouve dans la structure technique d’Internet et dans l’usage qu’on en fait. En tant qu’union de réseaux, chaque réseau est libre de s’y connecter à condition d’utiliser TCP/IP et d’obtenir des adresses IP pour ses machines. Il est probable qu’il lui faille aussi payer la connexion auprès d’un fournisseur d’accès à Internet. Les utilisateurs de ce réseau sont libres d’y faire ce qu’ils veulent tant qu’ils respectent les lois de leur pays voire les lois d’autres pays si leur activité sur Internet déborde de leur pays. Enfin, il leur est vivement recommandé de respecter les us et coutumes de l’Internet.
On voit donc apparaître différentes contraintes. L’aspect technique impose l’utilisation de TCP/IP ainsi que celle des protocoles applicatifs comme celui du courrier électronique, du web, des forums de discussion, etc. La mise en place de ces normes est la manifestation la plus ancienne d’un pouvoir sur Internet. En fait, il s’agit d’un pouvoir consensuel, ces normes étant définies en bonne intelligence par l’ensemble des personnes concernées par ces aspects techniques. Aujourd’hui des organismes, ouverts à tous pour la majorité d’entre eux, continuent ce travail de définition et de normalisation des protocoles. Ils forment ce qu’on appellera le pouvoir technique.
L’utilisation du protocole TCP/IP impose d’avoir une adresse IP pour être joignable. Bien sûr deux machines connectées à Internet ne doivent pas avoir la même adresse sous peine de ne pouvoir les différencier. Aussi un organisme a été créé pour distribuer ces adresses et tenir à jour une base de donnée qui indique qui possède quelles adresses. Cette base est unique et forme le nœud central du fonctionnement d’Internet avec celle des noms de domaines qui sont l’équivalent des adresses IP en langage humain. Les adresses IP et les noms de domaine étant gérés par un même organisme, qui dispose ainsi du pouvoir d’arrêter Internet ou des parties d’Internet en les rendant injoignables, certains considèrent que cet organisme dirige Internet. On parlera ici plutôt du pouvoir d’adressage.
S’il faut payer pour se connecter, la notion de pouvoir économique entre en jeu avec en particulier les aspects de concurrence. Et puisque Internet est devenu aussi un vecteur commercial, là encore le pouvoir économique entre en jeu. La jeunesse de ce pouvoir sur Internet fait qu’il y est encore moins puissant qu’il ne l’est dans nos sociétés occidentales, mais cette différence s’atténue. L’attaque de la société VeriSign contre le pouvoir technique et d’adressage en est une illustration (voir encart page ??). Aujourd’hui les sociétés comme Google ou Free en France, phares de l’Internet à travers leurs innovations et le large public qu’elles touchent, témoignent de l’importance de l’économie comme moteur du développement de l’Internet.
Enfin, puisque tout utilisateur majeur est responsable de ses actes sur Internet comme ailleurs, le pouvoir législatif de chaque pays impacte localement sur le fonctionnement de l’Internet. Internet n’est pas une zone de non droit où un internaute français pourrait exprimer des propos hors la loi, comme des propos racistes. Sa nature internationale et le fait que de tels propos sont autorisés dans d’autres pays ne change rien à la porté de la loi française. Mais dans d’autre cas Internet rend les lois françaises difficiles à appliquer. Ainsi la loi imposait à toute publication d’avoir un directeur de la publication déclaré auprès du procureur de la République, donc à chaque internaute possédant une page Web de se déclarer auprès du procureur de la République. Cette loi prévue pour les médias classiques n’était plus applicable dans le cas d’Internet et a dû être révisée. Enfin des lois nationales peuvent influencer globalement le fonctionnement d’Internet. La brevetabilité des logiciels en est l’illustration la plus flagrante. Il est actuellement interdit de breveter un logiciel1 et plus globalement une idée abstraite comme un théorème de mathématique en Europe. Aux Etats-Unis et au Japon les brevets logiciels sont autorisés mais tout laisse à penser qu’ils ne sont pas utilisés pleinement dans la crainte de faire fuir les nouvelles entreprises innovantes en Europe. Cette interdiction européenne est aussi la plus forte protection du monde des logiciels libres qui n’entrent pas dans la logique commerciale et donc des brevets. Que l’Europe change d’avis et les logiciels libres risquent de disparaitre et, avec eux, des pans entiers de l’Internet actuel. On voit donc que le pouvoir politique, à travers ses lois nationales, pèse aussi sur le fonctionnement d’Internet2.
Reste l’autre pouvoir politique, celui qui intervient directement auprès des autres pouvoirs cités. Ce pouvoir là est celui des Etats-Unis.
On a donc non pas un gouvernement de l’Internet mais quatre pouvoirs qui contribuent au bon (?) fonctionnement de l’Internet :
Bien sûr ces pouvoirs ne représentent qu’une vision grossière. Chaque pouvoir est composé de différents organismes qui parfois influencent aussi d’autres pouvoirs. Une représentation de la gouvernance de l’Internet ne peut qu’être simplifiée et tronquée. La simplification usuelle consiste à se restreindre à l’interaction entre les organismes en charge des aspects techniques en y ajoutant, quand c’est possible, ceux qui contrôlent ou influencent ces organismes. Cela revient à limiter l’Internet à un outil en oubliant son aspect monde virtuel lequel est d’avantage contrôlé par les lois.
3cm
L’ensemble de ces organismes et leurs relations sont étudiés dans les chapitres qui suivent.
À partir du moment où le réseau a offert des possibilités d’applications et d’interconnexion, il a été nécessaire de se mettre d’accord sur des protocoles permettant l’interopérabilité. Aussi des groupes de travail, Working Group – WG, ont été créés en même temps que l’ancêtre d’Internet, ARPANET. Ces groupes de travail sont devenus des groupes de travail sur Internet puis des organismes plus ciblés ont été créés. Ainsi l’ Internet Configuration Control Board (ICCB), mis en place en 1979, a eu pour mission de conseiller le responsable du DARPA, fondateur et principal responsable à l’époque du réseau, sur les aspects techniques. Ce comité, devenu aujourd’hui l’Internet Architecture Board, est toujours la référence technique de nos jours même si la DARPA ne gère plus Internet.
De leur coté les groupes de travail se sont scindés en deux parties avec d’un coté les groupes de travail en rapport avec la recherche, rassemblés aujourd’hui au sein de l’IRTF, et ceux en rapport avec l’écriture des protocoles, les RFC3, rassemblés au sein de l’IETF.
Enfin, devant l’importance du Web, le World Wide Web Consortium a été créé en 1994 pour gérer l’évolution des protocoles du Web.
source : ISOC
iab iesg
The Internet Engineering Task Force is a loosely self-organized group of people who contribute to the engineering and evolution of Internet technologies. It is the principal body engaged in the development of new Internet standard specifications. The IETF is unusual in that it exists as a collection of happenings, but is not a corporation and has no board of directors, no members, and no dues.Extrait du Tao, http://edu.ietf.org/tao
L’Internet Engineering Task Force est le témoignage du fonctionnement de l’Internet des débuts. Sans statut, l’IETF est un ensemble cohérent de groupes de travail4 qui travaillent à la création des protocoles et règles de l’Internet (les RFC, Request for comments). Ces groupes sont ouverts à tout le monde et fonctionnent principalement via des listes de diffusion où les points sont débattus jusqu’à obtention d’un consensus.
La création d’un groupe de travail et son interaction avec les autres et plus globalement avec l’IETF est définie dans la RFC 2418, “IETF Working Group, Guidelines and Procedures”. Chaque groupe de travail doit être lié à l’une des 8 thématiques existantes au sein de l’IETF. Il doit avoir un objet précis qui n’entre pas en conflit avec les groupes existants. Un groupe peut disparaitre lorsqu’il a accompli sa mission ou s’il n’a plus de raison d’être.
Si le fonctionnement de l’IETF est essentiellement basé sur le consensus, il existe quand même une structure gouvernante chargée de trancher en cas de conflit et plus généralement de prendre in fine les décisions ou plus généralement de valider les décisions prises par les groupes de travail. Cette structure gouvernante de l’IETF est l’Internet Engineering Steering Group (IESG). Elle est composée des responsables des 8 thématiques, du responsable de l’IETF et d’agents de liaison avec les autres organismes techniques de l’Internet. Elle comprend à ce jour5 :
Officiellement les personnes ne représentent qu’elles-même, leur affiliation n’étant donnée qu’à titre d’information. On notera néanmoins que les grands constructeurs de matériel lié à l’Internet sont bien représentés. En observant d’où viennent les rédacteurs des RFC, on obtient l’implication des différentes entreprises :
source : http://www.arkko.com/tools/stats/companydistr.html – février 2010
Ces chiffres lus par pays mettent la France en 4 position avec 158 participations à la rédaction de RFC, derrière les États-Unis, 1305, l’Allemagne, 208, et la Grande-Bretagne, 182.
iab
Au-dessus de l’IESG, se trouve l’Internet Architecture Board. Ce comité composé de 12 membres élus par l’IETF et du responsable de l’IETF, est l’autorité supérieure pour tous les aspects techniques de l’Internet. Elle :
ex
L’IAB est actuellement présidé par Olaf Kolkman.
ex Ainsi l’écriture des RFC fait intervenir 3 organismes qui se contrôlent les uns les autres (cf figure 3.4). Un 4 organisme intervient dans ce fonctionnement en tant qu’entité morale et structure administrative hébergeant ces 3 organismes: il s’agit de l’association des internautes, l’ISOC. Cette dernière, qui chapeaute l’IAB, ne peut intervenir que sur des aspects administratifs.
Il existe une seconde voie pour publier une RFC qui est la soumission indépendante. En premier la soumission doit commencer par la publication d’un document appelé "Internet Draft" (brouillon) afin de pouvoir être étudié par l’IETF. Ensuite, la RFC doit être soumise au RFC Editor. Si le document respecte les règles éditoriales, il sera soumis à l’IESG pour vérifier qu’il n’interfère pas avec des travaux en cours de l’IETF, et alors seulement il pourra être publié.
irtf
L’Internet Research Task Force est le pendant de l’IETF pour le long terme. Elle se consacre à la recherche dans les domaines des protocoles, des applications, de l’architecture et des technologies.
Le fonctionnement de l’IRTF est semblable à celui de l’IETF avec l’IRSG qui gouverne sous la supervision de l’IAB.
w3c
Avec le succès du Web, HTML est devenu le premier langage dont la puissance économique aurait pu mettre à mal Internet. Lorsque l’équipe de Mosaic, le navigateur qui a rendu convivial le Web, est partie créer Netscape, elle a rapidement voulu «embellir» le langage HTML et a profité de sa situation dominante pour ajouter des mots clés sans prendre l’avis des comités en charge de ce langage. D’autres navigateurs allaient dans d’autres directions et avec l’arrivée du navigateur Internet Explorer de Microsoft en 1995, on pouvait craindre d’avoir rapidement des langages HTML différents voire incompatibles. On risquait d’avoir le Web Netscape, le Web Microsoft et le Web HTML pur, chacun avec ses navigateurs incapables de comprendre les sites des autres.
Aussi le World Wide Web Consortium a été créé en 1994 par Tim Berners-Lee au sein du MIT, avec l’INRIA et l’université de Keio, pour éviter cette débâcle en poussant les acteurs du Web à travailler en bonne intelligence. Il a permis, avec le concours de l’IETF, de faire évoluer HTML rapidement afin de satisfaire les besoins de chacun. En ce sens le W3C se rapproche de l’IETF, mais contrairement à l’IETF, le W3C est un club fermé dont le prix du ticket d’entrée est très élevé, entre 6 500 et 65 000 euros par an suivant le type d’organisme6.
Aujourd’hui le W3C travaille sur les nouveaux protocoles et techniques du Web et de ce qui s’y attache :
source : W3C, 2006
Plusieurs organisations nationales, professionnelles ou internationales de normalisation contribuent [aussi] au processus de standardisation d’éléments de l’infrastructure Internet. Ainsi l’IEEE (Institute of Electrical and Electronics Engineers) est le lieu privilégié de la normalisation des réseaux locaux (Ethernet à 10, 100 et 1000 Mbit/s, Hiperlan, Firewire ...).
L’ETSI (European Telecommunications Standards Institute) mène une activité de standardisation dans des domaines avancés des télécommunications (téléphonie mobile de 3génération, terminaux, voix sur IP, sécurité, réseaux intelligents, ...). Les technologies traditionnelles des télécommunications, dont les technologies optiques et SDH, sont normalisées à l’UIT (Union Internationale des Télécommunications) qui reprend également dans sa nomenclature des normalisations issues, entre autres, de l’IEEE (réseaux locaux) et des Bell Labs (SONET). Forums et consortiums s’attachent à définir avec célérité des fonctionnalités spécifiques (ADSL Forum, ATM Forum, QoS Forum, par exemple).7
Le pouvoir d’adressage découle directement du pouvoir technique. Ce pouvoir est lié à l’unicité des identifiants nécessaires au bon fonctionnement de TCP/IP, du DNS mais aussi de nombreux autres protocoles.
A la création d’Arpanet, la gestion de ces identifiants a été attribuée à Jon Postel8, responsabilité qu’il a gardée jusqu’à sa mort en 1998. En concentrant la distribution de tous ces identifiants entre ses seules mains, Jon était de fait, le point central du fonctionnement de l’Internet. Pour certain il en était le Dieu.
A sa mort, l’Internet Assigned Number Authorithy, IANA, qui lui servait de cadre pour l’exercice de cette mission, a été intégrée dans la naissante ICANN, organisme voulu par le gouvernement américain pour gérer les identifiants numériques uniques et les noms de domaines.
Jon Postel, 1943–1998 «Soyez conservateur avec ce que vous envoyez, soyez libéral avec ce que vous recevez.» r5cm Jon Postel source : photo d’Irène Fertik ©1994 USC News Service En 1969, l’Institut de Recherche de l’université de Stanford (SRI), était le second nœud connecté à l’Arpanet. Il avait été choisi pour être le Centre d’Information du Réseau et Jon Postel, qui y travaillait, fut choisi pour gérer les RFC ainsi que l’attribution des identifiants uniques. Il gardera ce rôle toute sa vie. Mais Jon a été bien plus que cela. Sa participation à travers la rédaction de très nombreuses RFC, au développement du Réseau et des applications qui s’y développaient a marqué l’Internet. On retiendra sa participation au développement des protocoles IP, TCP, UDP, Telnet, SMTP, FTP et du DNS. Son travail d’éditeur des RFC, mais aussi de conseiller auprès des rédacteurs des RFC, ainsi que son travail de gestion des identifiants uniques durant ces 30 années ont fortement participé à la stabilité technique de l’Internet. Il était un des sages de l’Internet. Someone had to keep track of all the protocols, the identifiers, networks and addresses and ultimately the names of all the things in the networked universe. And someone had to keep track of all the information that erupted with volcanic force from the intensity of the debates and discussions and endless invention that has continued unabated for 30 years. That someone was Jonathan B. Postel, our Internet Assigned Numbers Authority, friend, engineer, confidant, leader, icon, and now, first of the giants to depart from our midst. source : Extrait de la RFC 2468, l’hommage de Vinton Cerf à Jon Postel. |
icann
La création de l’ICANN a été longue et difficile. Alors qu’Internet subissait un changement structurel profond suite à son ouverture au grand public, nombreux étaient ceux qui remettaient en cause son fonctionnement. Les deux points de conflit étaient le monopole de la Network Solution Inc., NSI, sur la distribution des noms de domaine génériques (.org, .com et .net) et la mainmise du gouvernement des Etats-Unis sur le fonctionnement de l’Internet.
Les informaticiens pères de l’Internet, dont Jon Postel en tant que IANA, désiraient conserver l’esprit initial du réseau tout en l’ouvrant au monde. Ils ont, dans ce but, proposé la création d’un organisme, le Council of registres 9, CORE10, basé en Suisse et offrant une place à l’ONU via l’Union Internationale des Télécommunications, ITU. Cet organisme n’avait clairement pas la faveur du gouvernement des Etats-Unis qui imposa à la place une association de droit Californien, l’ICANN11.
La création de l’ICANN n’a donc pas réglé le problème de la mainmise des Etats-Unis sur l’Internet. Elle a par contre permis de casser le monopole de la NSI en offrant à d’autres entreprises, les registres , la possibilité d’enregistrer des noms de domaine dans les 3 Top Level Domains, TLD, génériques d’alors.
En tant que successeur de l’IANA et de NSI, l’ICANN a pour mission la gestion des noms de domaines terminaux, TLD, des adresses IP et des serveurs de noms racines, les DNS root servers.
Sa première action a été de casser le monopole de la NSI en créant les registres , les sociétés habilitées à enregistrer des noms de domaine dans les TLD non nationaux.
Elle a ensuite mis au point avec l’OMPI une charte de résolution des disputes liées aux noms de domaine, l’UDPR.
En 2000, l’ICANN a lancé un appel pour la création de nouvelles terminaisons de domaine générique, TLD. Seuls 7 nouveaux gTLD on été retenus : .aero, .biz, .coop, .info, .museum, .name et .pro.
En 2003, 7 autres gTLD ont été créés, certains réservés, d’autres ouverts à tous (.asia .cat .jobs .mobi .tel .travel .post).
La prochaine vague est prévue pour 2010 avec des extensions en d’autres alphabets qu’en Latin.
.aero le domaine réservé de l’aéronautique, .arpa réservé à l’IAB pour l’administration du réseau, .asia réservé à l’Asie, .biz pour ce qui concerne le businesses, ouvert à tous .cat les domaines en catalan, .com le domaine historique pour tout ce qui est commercial, .coop pour les associations et ceux qui se veulent coopératifs, ouvert à tous, .edu réservé aux établissement supérieurs reconnus par les États-Unis, .gov réservé au gouvernement des États-Unis, .info a priori pour l’information mais ouvert à tous, .int réservé aux agences internationnales, .jobs réservé aux entreprises pour leurs ressources humaines, .mil réservé à l’armée des Etats-Unis, .mobi le domaine des téléphones, assistant personnel…, ouvert à tous, .museum réservé aux musées, .name pour votre nom, ouvert à tous, .net pour tout ce qui touche au réseau, l’un des 3 premiers gTLD, ouvert à tous, .org pour les organisations, associations…mais en pratique, très utilisé pour les projets informatiques, ouvert à tous, .pro le domaine réservé aux professionnels. Actuellement limité à certaines professions de certains pays, .travel pour les professionnels du voyage.
Cette liste est maintenue à jour sur http://www.iana.org/gtld/gtld.htm et les accords signés avec l’ICANN sont sur http://www.icann.org/en/registries/agreements.htm.
L’ICANN est une association de droit californien lié par un accord renouvelé annuellement avec le département du commerce des États-Unis. Ces statuts, issus de la réforme de 2002, sont disponibles sur son site, cf http://www.icann.org/general/bylaws.htm.
Elle est dirigée par son président-directeur12, actuellement Steve Crocker.
Le CA est composé de 15 membres ayant un droit de vote et de 6 membres n’ayant pas de droit de vote, les 6 à droite sur la figure 3.6. Ces membres représentent les différents entités impliquées dans l’adressage ainsi que 8 membres élus par le Nominating Committee.
L’ICANN est composé de différents comité chargé de donner des avis sur différentes thématiques. Ces comités sont représentés au Conseil d’Administration.
r5cm source : Wikipédia, 2006
rir ripe L’Address Supporting Organization est composée des différents organismes qui distribuent les adresses IP, les bureaux d’enregistrement “Internet Régional”, RIR, à savoir l’ARIN pour l’Amérique du nord, la LACNIC pour l’Amérique Latine et les Caraïbes, le RIPE-NCC pour l’Europe et le Moyen-Orient, l’AfriNIC pour l’Afrique et l’APNIC pour l’Asie et le Pacifique.
Initialement Jon Postel était en charge de la distribution des adresses IP mais rapidement un système de délégation par continent a été mis en place, Jon Postel délivrant des paquets d’adresses aux organismes en charge des régions continentales. Ce principe continue aujourd’hui avec l’IANA qui distribue les blocs adresses IPv4 et IPv6 aux RIR.
De l’autre coté les RIR distribuent les adresses officiellement à toute personne de leur région en faisant la demande, mais en pratique ils servent les fournisseurs d’accès à Internet et les opérateurs.
La Generic Names Supporting Organization comprend toutes les personnes concernées par les gTLD :
La Country Code Name Supporting Organization représente les bureaux d’enregistrement nationaux des ccTLD sauf que les gestionnaires des domaines nationaux ne sont pas obligatoirement partant pour participer à ce qui peut être vu comme une ingérence étrangère dans leurs affaires. Le résultat est que la CCNSO n’a pas pu exister officiellement avant 2004 par manque d’adhérents, son règlement stipulant qu’il lui faut 4 représentants par continent13.
centr Les pays rebelles, essentiellement les européens, ont de leur coté créé le Council of European National Top level domain Registrie, CENTR. En 2006, ce conseil européen des registres avec ses 50 membres débordait largement de l’Europe avec des pays comme le Canada ou le Japon.
Aujourd’hui le CENTR discute avec l’ICANN pour revoir les statuts de la CCNSO en particulier sur les aspects d’ingérence de l’ICANN dans la gestion des ccTLD. En mai 2006, l’ICANN a accepté de revoir partiellement les statuts de la CCNSO ce qui a été suivi de l’adhésion du Royaume Uni, mais le plus gros ccTLD, l’Allemagne, ainsi que la majorité des pays européens restent toujours en dehors du CCNSO.
Le Root-Server System Advisory Committee est l’organisme responsable du noeud central du DNS puisqu’il regroupe les gestionnaires des 13 serveurs racines.
Parmi ces 13 serveurs racines, 10 sont aux Etats-Unis, 2 en Europe et 1 au Japon. Avant 2002, un serveur racine était une seule machine ce qui posait un problème d’indépendance crucial pour les pays autres que les Etats-Unis. Que les États-Unis bloquent leurs 10 serveurs et le reste du monde risquait un engorgement fatidique. Heureusement la technique de l’anycast qui permet d’avoir plusieurs machines derrière une même adresse IP, avec la machine la plus proche qui seule répond, a permis de remédier à ce problème. Aujourd’hui sur les 13 serveurs racines, 6 sont en mode anycast ce qui fait qu’il y a en fait plus de 100 machines qui répondent à une requête à la racine du DNS, la majorité étant en dehors de Etats-Unis14.
source : Internet System Consortium, 2009
Le Security and Stability Advisory Committee, comme son nom l’indique, veille à la stabilité et à la sécurité d’Internet pour ce qui concerne l’ICANN. Cela va des mesures suggérées pour éviter le cyber-squatting, en particulier lorsqu’une personne oublie de renouveler un nom de domaine, en passant par les mesures de protection des données privées enregistrées lorsqu’on acquiert un nom de domaine, base whois, jusqu’à des aspects plus techniques comme l’allocation des adresses IP version 6.
Le travail de ce comité fait parfois double emploi avec celui de l’IAB ou de l’IETF. Le SSAC n’a pas vraiment plus de poids que ces derniers, même au sein de l’ICANN puisqu’il n’émet que des avis.
Le Governmental Advisory Committee pourrait être le nouveau siège de la légitimité de l’ICANN qui a rejeté les représentants des internautes en 2002, cf L’expérience At Large ci-dessous. Mais les relations entre la direction de l’ICANN et le GAC sont confuses. Il semble que l’ICANN cherche cette légitimité, les relations CA-GAC sont constantes en particulier à travers un groupe de travail, mais en même temps le GAC n’a pas de droit de vote
En pratique le CAG donne son avis sur les mêmes questions que le SSAC, mais d’un point de vue politique. A cela on peut ajouter la gestion des noms de domaine nationaux, les ccTLD, gestion qui est aussi du domaine du CCNSO, d’où un groupe de travail GAC-CCNSO.
Le At-Large Advisory Committee représente les internautes. Son histoire est houleuse, cf ci-dessous, et sa relégation par le CA à un rôle purement consultatif a fortement contribué au manque d’intérêt que lui portent les internautes.
Le Technical Liaison Group comprend les représentants des organismes techniques d’Internet et du monde des télécommunications que sont
Le TLG a pour mission de répondre aux questions de l’ICANN et de l’avertir de nouveautés qui pourraient avoir un impact sur sa mission.
En 2000, l’ICANN s’est ouverte au grand public en lui permettant de participer directement à l’élection de 5 membres du comité d’administration via l’élection At Large. Ce fut la première élection mondiale au suffrage direct. Elle a rassemblé 76 000 internautes qui ont pris la peine de s’inscrire auprès de l’ICANN pour être électeur «At Large».
Les 5 représentants représentaient les 5 «régions» du monde vu par l’ICANN. Ainsi les premiers élus ont été :
Personne élue Région nb voix nb votants Nii Quaynor Afrique 67 130 Masanobu Katoh Asie / Australie / Pacifique 13913 17745 Andy Mueller-Maguhn Europe 5948 11309 Ivan Moura Campos Amérique Latine / Caraïbes 946 1402 Karl Auerbacha) Amérique du nord 1738 3449 a) élu au sixième tour
Les chiffres de cette élection soulignent la disparité des régions et les différences d’implication des internautes. La seule élection difficile a été celle de l’Amérique du nord puisque Karl Auerbach n’a été élu qu’au sixième tour. Avec Andy Mueller-Maguhn, ces deux élus des régions les mieux connectées étaient les plus en opposition avec l’establishment de l’ICANN.
Andy était un jeune hacker libertaire, porte-parole du Chaos Computer Club connu pour son combat pour la transparence, la liberté d’information et pour ses intrusions dans des systèmes informatiques comme celui de la Nasa ou du gouvernement allemand. Il a critiqué le mode de fonctionnement de l’ICANN, sa dépendance vis à vis des Etats-Unis ainsi que sa vision occidentale. Il désirait une plus grande place pour l’intérêt public sur Internet, menacé d’après lui par la prédominance des entreprises et du droit des marques.
Karl Auerbach était plus âgé. Chercheur chez Cisco, ancien responsable de projets à l’IETF, il était tout aussi critique sur la création et le fonctionnement opaque de l’ICANN. Lui aussi a demandé une plus grande transparence et une ouverture des TLD qu’il désirait créer par millions pour casser la pénurie artificielle des noms de domaine.
Si Andy Mueller-Maguhn semble avoir été muselé, Karl Auerbach a lutté en particulier pour essayer d’obtenir de l’ICANN une plus grande transparence. Cette lutte a culminé durant l’été 2002 avec le procès qu’il a intenté à l’ICANN pour obstruction à l’accès des archives en violation du règlement de l’ICANN et de la loi sur les associations. Bien sûr l’ICANN a été condamnée mais l’establishment a considéré qu’il était vraiment trop dangereux d’avoir des élus du peuple en son sein et a voté une réforme profonde de son fonctionnement pour expulser les représentants des internautes. Ils sont passés de 5 membres au Conseil d’Administration, avec plus du quart des voix, à 1 membre sans droit de vote.
Ce qui aurait dû être un exemple de fonctionnement coopératif et transparent dans la plus pure tradition d’Internet est, malheureusement, devenu une machine opaque qui semble surtout penser à elle et à servir certains intérêts. La refonte des statuts de l’association voulue par Stuart Lynn en 2002, qui a retiré les représentants des internautes du CA et cherché à impliquer d’avantage les États dans le fonctionnement de l’association a confirmé cette vision.
L’année suivant la réforme des statuts, le budget de l’ICANN a augmenté de 33% pour atteindre 8 millions de dollars, puis doublé en 2004-2005 pour atteindre 15 millions et s’élève pour 2005-2006 à 23 millions. Il est difficile de justifier un tel budget. Les organismes techniques, l’IETF, l’IAB et l’éditeur des RFC, disposaient en 2005, à eux trois, d’un budget 10 fois plus faible avec une dotation de 1,4 million de dollars versée par l’ISOC. Mais l’ICANN peut lever autant d’argent qu’elle le désire sur les noms de domaine, alors comment résister ?
Si la méthode ne convainc pas, les résultats ne sont guère plus convainquants. Certes quelques TLD ont été créés, mais ils restent peu nombreux. Pire, lorsque l’ICANN choisit enfin, en 2006, de créer le TLD .xxx pour les sites à caractère pornographique, le gouvernement de Etats-Unis la rappelle à l’ordre et la force à abandonner cette idée.
Bref, l’ICANN a le pouvoir, elle est riche, mais sa crédibilité et sa réputation sont désastreuses. De nombreux pays ont déjà demandé à ce que sa mission lui soit retirée pour être donnée à l’ONU, cf partie sur le SMSI. Il est probable qu’ils reviendront à la charge.
Date: Tue, 6 May 2003 16:23:57 +0200 (MEST) From: Louis Pouzin <pouzin@well.com> To: <forum@isocfrance.org> Subject: [forum isoc] Re: TLD non americains/ .eu et réforme ICANN Ces discussions sont les bienvenues. L'Icann gouverne, au sens américain, c.a.d. organise. Quoi en effet ? D'abord des réunions internationales. Tous les 3 mois environ, les habitués se retrouvent en des lieux sympathiques, à travers le monde. On sait très bien qu'il ne s'y décidera rien car l'araignée a construit une toile épaisse de comités pare-débat. Mais tout de même, Shangaï, Rio, Montréal (en été), c'est moins banal que Genève, Genève, Genève. Et ça entretient une fidélité à l'institution. En plus de ce rôle de tour opérateur, il y a aussi celui de créer des top domaines. Il faut faire piaffer les foules pendant quelques années pour qu'elles se précipitent sur les nouvelles particules. Il importe en effet de ne pas se faire coiffer au poteau par un gêneur accaparant le nom de votre société. Le fait de créer ce risque est très bénéfique, car on crée en même temps les compagnies d'assurance (registreurs) qui couvrent ce risque pour $30 l'an. Multiplions par 300000 assurés, cela fait un revenu de $9M. Il est bien naturel que l'Icann soit rétribué convenablement pour ce petit geste. Au delà de ce portefeuille d'assurances contre chaînes de caractères nocifs, il ne reste plus grand chose. Les numéros IP ? En IPv4 l'Icann (sous couvert IANA) a déjà bien rempli sa mission. Selon la liste <www.iana.org/assignments/ipv4-address-space> 84% des adresses allouées ont été attribuées à des sociétés américaines. Difficile de faire beaucoup plus. Oh, on allait oublier quelque chose, la Racine (root), la mère des tables de correspondance entre noms et adresses. C'est pourtant impressionnant: 250 noms (TLD + ccTLD), et la sauce associée, cela doit bien faire pas loin de 100K octets. C'est là qu'on vient chercher où trouver les autres tables des susdits domaines. Comme elles ne changent guère souvent, tous les serveurs de la planète pourraient s'en faire une copie, et pourquoi pas une dans chaque PC ? Avec de tels propos iconoclastes on pourrait finir par imaginer que la racine ne servirait à pas beaucoup plus que rien. Mais ce serait une erreur. Elle permet à l'organisation qui contrôle la racine de surveiller tout le trafic de l'Internet, noter qui parle à qui, placer des bretelles sur les échanges, détourner les messages ou en fabriquer, et même rayer des noms (ou ccTLD) de la liste. Mais ce ne serait sans doute pas convenable de s'attarder sur ce sujet.La vision de l’ICANN d’un ancien de l’Internet |
Internet n’est plus le réseau universitaire qu’il a été. Il s’agit aujourd’hui d’une union de réseaux pour la grande majorité privés. Les plus grands de ces réseaux appartiennent à des opérateurs Internet spécialisés dans le déploiement et la gestion des réseaux. L’accès à ces réseaux est ensuite loué aux entreprises ou aux fournisseurs d’accès, ces derniers étant les techniciens de l’Internet les plus visibles. En amont des opérateurs Internet, on trouve les constructeurs de matériel réseau dont le plus connu est Cisco.
L’influence des techniciens sur l’Internet est celle des personnes qui font les choses. Le réseau fonctionne grâce à eux, comme ils le désirent même si pour des raisons d’interopérabilité ils suivent les directives techniques de l’IETF et des autres organismes techniques. Que les plus gros opérateurs Internet et constructeurs décident de développer ensemble leurs protocoles en dehors de l’IETF et cette dernière perdra bien la moitié de sa raison d’être.
Le pouvoir des propriétaires est celui de permettre l’utilisation de leur réseau. On en a le témoignage actuellement dans le débat sur la neutralité des réseaux, cf page ??. Le coût d’un réseau continental étant de plusieurs milliards d’euros15, les propriétaires des grands réseaux savent qu’ils sont difficilement contournables.
De l’autre coté du miroir, se trouve la puissance économique la plus visible du grand public dont les étoiles actuelles sont Google, Yahoo et toujours Microsoft. Ces entreprise, en relation directe avec les internautes, font régulièrement les unes des journaux et modèlent l’utilisation de l’Internet. On peut les séparer en deux catégories, les entreprises de service et celles qui “contrôlent” l’ordinateur des internautes.
Dans la première catégorie les entreprises qui forment le paysage de l’Internet, celui que parcourt l’internaute. Ce sont Google, Yahoo, eBay et bien sûr les commerçants, Amazon, Pixmania en France…
Dans la seconde catégorie on trouve en position d’empereur Microsoft et son système d’exploitation Windows. Avec un quasi monopole Microsoft disposerait d’un pouvoir immense sur l’Internet sans la crainte de procès pour situation de monopole avec pour punition suprême d’être découpé en baby Microsoft. Ajoutons à cela la jeunesse de Microsoft qui n’a rejoint l’Internet que dans les années 90 et l’image négative qu’elle a dans un monde construit sur le système d’exploitation UNIX. Tout ces points ralentissent voire bloquent la prise de pouvoir de Microsoft sur les structures de l’Internet. Il est d’ailleurs intéressant de constater que l’Internet avec ses UNIX, Linux étant l’UNIX le plus connu, et ses logiciels libres aura peut-être un plus grand impact sur l’avenir de Microsoft que l’inverse.
On note que d’un point de vue purement financier, ces entreprises ne jouent pas dans les mêmes catégories. Les “télécoms” ont des chiffres d’affaires très importants et des bénéfices proportionnellement moindres que les “informaticiennes". L’opérateur Level3, qui est l’un des plus gros, est tout petit à côté des télécoms. Amazon qui est la référence du web marchand génère des bénéfices très réduits par rapport à son chiffre d’affaire.
source : Yahoo Finance, 2008
Les opérateurs Internet, souvent les grandes compagnies de téléphonie, gèrent les flux de transit comme les flux internationaux. Ils sont aussi présents localement et louent leurs infrastructures, réseaux, salles serveurs, aux fournisseurs d’accès locaux ainsi qu’aux entreprises. Ils sont le cœur de l’Internet.
Les principaux opérateurs sont aux États-Unis et tirent avantage de la position centrale de leur pays dans l’Internet. Dans les années 90, il n’était pas rare qu’une connexion entre deux ordinateurs français passe par les États-Unis simplement car il était plus rentable pour les fournisseurs d’accès français de se raccorder à un réseau américain. En 2005, on estimait que 94% des communications intercontinentales passaient par les États-Unis16.
Il est courant que les opérateurs Internet soient aussi des fournisseurs d’accès. Ainsi le plus gros opérateur français, France Telecom, est aussi le plus gros fournisseur d’accès français via sa filiale Wanadoo. Les trois plus gros fournisseurs d’accès français sont aussi des opérateurs Internet, la structure de l’opérateur Internet étant souvent séparée de celle du fournisseur d’accès, France-Télécom et Wanadoo, Proxad et Free.
L’importance des fournisseurs d’accès est liée à leur interaction directe avec les internautes. Lorsqu’un fournisseur double le débit ou offre la téléphonie sur IP, il change le fonctionnement de l’Internet, et plus, pour tous ses clients. En proposant innovation sur innovation, comme maintenant l’hébergement dédié de serveur avec une connexion à 100 Mbits, Free est l’exemple typique du fournisseur qui modifie la relation à l’Internet. Cependant Free est encore trop petit au niveau mondial pour influencer le fonctionnement de l’Internet. Même AOL avec 17 millions d’abonnés, soit moins de 20% du marché des Etats-Unis, ne pèse pas autant que les gros opérateurs.
L’épaisseur du trait représente le débit.source : TeleGeography Rersearch, 2004
rang n° d’AS opérateur Internet pays 1 701,… UUNET Technologies, Inc. (Verizon) US 2 3356,… Level 3 Communications, LLC US 3 1239,… Sprint US 4 174,… Cogent Communications US 5 7018,… AT&T WorldNet Services US 6 2914,… Verio, Inc. US 7 3549,7300 Global Crossing US 8 6461,17025 Abovenet Communications, Inc US 9 3561,… Savvis US 10 1299 TeliaNet Global Network SE 11 209 Qwest US 12 3320 Deutsche Telekom AG DE 13 7132,… SOCKET Internet Services US 14 6421,6453 Teleglobe Inc CA 15 5459 London Internet Exchange Ltd. UK 16 1273 Cable & Wireless NL 17 3508,… Time Warner Telecom US 18 3257 Tiscali Intl Network DE 19 5511 France Telecom FR 20 2548,… Allegiance Telecom Companies Worldwide source : Caida, 2006
La neutralité des réseaux
Un fournisseur d’accès à Internet, FAI, peut techniquement privilégier ou réduire les débits vers un site web ou d’une application, la radio en ligne par exemple. La neutralité des réseaux consiste à ne pas le faire, c’est la position suivie actuellement. Pourtant, les fournisseurs d’accès et opérateurs Internet aux États-Unis aimeraient changer les règles. Voici le point de vue du directeur de SBC Telecommunications qui répond à la question «En quoi êtes vous concerné par les startups de l’Internet comme Google, MSN, Vonage et autres ?» (interview de Business Week) : How do you think they’re going to get to customers? Through a broadband pipe. Cable companies have them. We have them. Now what they would like to do is use my pipes free, but I ain’t going to let them do that because we have spent this capital and we have to have a return on it. So there’s going to have to be some mechanism for these people who use these pipes to pay for the portion they’re using. Why should they be allowed to use my pipes? Vilain Google ! D’un autre coté, sans Google et les autres fournisseurs de services et de contenus, Internet serait nettement moins attrayant et les FAI auraient probablement peu de clients. Alors qui à besoin de qui ? Les FAI pensent avoir l’avantage et veulent offrir un meilleur accès aux fournisseurs de contenu et de service qui les payent. Il s’agit du système dit à deux niveaux, "two-tier Internet". Vinton Cerf, vice-président chez Google mais aussi co-auteur de TCP/IP, considère que les FAI sortent de leur rôle en voulant privilégier tel ou tel accès. Pour lui, si les FAI ne respectent pas une véritable neutralité, l’avenir d’Internet est menacé : Nothing less than the future of the Internet is at stake in these discussions. We must preserve neutrality in the system in order to allow the new Googles of the world, the new Yahoo!s, the new Amazons to form. We risk losing the Internet as catalyst for consumer choice, for economic growth, for technological innovation, and for global competitiveness.. Il a été rejoint dans ce sens par Lawrence Lessig, professeur de droit à Stanford, pour qui l’innovation vient de l’extérieur. Le "deux niveaux" risque donc de tuer l’innovation en privilégiant le commercial, j’accède à tel service non pas pour son innovation et son efficacité mais car il est bien connecté, le service ayant payé mon FAI pour avoir une bonne connexion. Prenons un cas pratique. Ayant de la bonne connexion ADSL, mon fournisseur, Free, me propose des vidéos à la demande. Demain Google fera de même en France. Il y aura donc une concurrence et grande sera la tentation pour Free d’indiquer que ses connexions vers Google sont saturées et donc qu’il devient impossible d’accéder à la vidéo à la demande chez Google. Aujourd’hui, si tel était le cas, il y aurait un déséquilibre entre le réseau de Free et celui du FAI de Google. La résolution de ce déséquilibre passe par des accords entre FAI, dits accords de peering17. Ils indiquent les conditions pour faire transiter les paquets IP émis par l’autre, conditions liées au volume émis par chacun en direction du réseau de l’autre. Dans notre cas, Free pourrait appliquer ou réviser son accord de peering pour faire payer plus cher le FAI de Google et ainsi améliorer son réseau. De son coté, le FAI de Google répercuterait le coût sur son client. |
Si l’internaute a besoin du fournisseur d’accès pour se connecter, le fournisseur d’accès a besoin de l’opérateur Internet pour transmettre les données et l’opérateur a besoin des fabricants de matériel réseau pour construire son réseau.
Parmi ces fabricants, avec un chiffre d’affaire de 40 milliards de dollars en 2008, Cisco System domine largement le marché des équipements de réseau IP. Contrairement à son principal concurrent, Alcatel-Lucent, qui est une vieille entreprise du 19e siècle, la jeune Cisco est issue de l’université de Stanford où furent construits ses premiers routeurs en 1984 18. Sa progression est directement liée à celle de l’Internet.
Cisco Sytem et Alcatel-Lucent, 2009
L’importance de Cisco dans le paysage de l’Internet est donc liée à son matériel sur lequel repose la plus grande partie du réseau. Une faille majeure dans les routeurs de Cisco aurait un impact certain sur le fonctionnement de l’Internet. Aussi les annonces de bugs de Cisco sont toujours craintes, à tel point que Cisco a été jusqu’à bloquer la diffusion de telles informations, par la menace si besoin est19.
Cette position dans le bon fonctionnement du réseau au niveau de la transmition des paquets se retrouve naturelle dans la définition des protocoles liés à ce fonctionnement. Ainsi Cisco est le premier participant aux travaux de l”IETF, cf figure 3.3. Cette double position en tant que fabriquant et en tant que normalisateur renforce sa position dominante.
registry L’entreprise la plus importante liée à l’aspect administratif du réseau est probablement VeriSign. Elle est
En tant que responsable de la gestion de .com et .net, VeriSign contrôle plus de 50 millions de noms de domaine (en 2005) ce qui en fait de loin le plus gros bureau d’enregistrement .
Tout cela lui permet de discuter avec l’ICANN en position de force.
Mais la gestion de ces domaines n’est qu’une (petite) partie de l’activité de Verisign. Elle est aussi et surtout la plus grande autorité de certification, cf PARTIE-CRYPTO.
En tout VeriSign a généré un chiffre d’affaire de 1,6 milliard de dollars en 2005.
registrar Il existe de nombreuses entreprises qui gèrent les noms de domaines en tant que registre , comme Go Daddy ou Gandi en France, ou en tant que bureau d’enregistrement . Si chacune de ces entreprises n’a pas de pouvoir sur l’Internet, leur existence collective est vitale pour le fonctionnement du DNS. Leur multiplicité est aussi un gage de stabilité, l’ICANN pouvant toujours retirer l’accréditation de l’une pour la donner à une autre.
On a le même schéma avec les autorités de certification.
La nouvelle économie devait tout ravager sur son passage. L’ancienne n’allait pas s’en remettre et voila que le krach de l’an 2000 a remis les pendules à l’heure.
Sauf que finalement, certains trublions prennent de l’importance tant économiquement, que socialement. Leur influence est notable, ils forgent à leur façon l’Internet de demain.
L’étoile de la nouvelle économie qui brille le plus fort est bien sûr Google. Google qui fait ci, qui fait ça, Google qui débourse 1,5 milliard pour se faire un cadeau, etc. Google propose tellement de services, évolue tellement vite et emmagasine tellement d’argent, qu’on ne sait où elle va s’arrêter.
L’influence de Google sur Internet existe tant par ses innovations régulières que par ses prises de position, comme dans le cas de la neutralité du réseau, cf encart page ??.
Le cas Google est intéressant à plus d’un titre aussi plutôt que de survoler cette entreprise dans cette section, un chapitre complet lui est consacré, cf chapitre ??.
Crée en 1994, Yahoo est une des premières entreprises de la nouvelle économie. Aujourd’hui elle est dans l’ombre de Google mais elle n’en reste pas moins l’un des poids lourds de la nouvelle économie. Cependant Yahoo ne semble pas avoir d’influence notable sur la gouvernance ou l’évolution de l’Internet.
Les autres entreprises de la nouvelle économie sont plus discrètes. Dans certains cas, leur technologie peut avoir une réelle influence sur l’Internet. Par exemple PayPal est actuellement en train de devenir la monnaie de référence sur l’Internet (cf section ??).
Si l’Internet s’est ouvert au grand public durant les années 90 ce n’est pas dû à une certaine volonté politique mais au fait qu’il devenait techniquement possible de connecter les micro-ordinateurs du grand public à l’Internet. Auparavant les ordinateurs utilisés sur l’Internet étaient des machines très coûteuses, que ce soit les stations de travail posées sur les bureaux des chercheurs, ou les super-ordinateurs pour les très gros calculs.
Or durant les années 90 les micro-ordinateurs, dont la puissance augmentait plus rapidement que celle des stations de travail, sont devenus assez puissants et assez complets pour être connectés au réseau20. Et comme le système d’exploitation des micro-ordinateurs était presque toujours Windows, Microsoft a pu profiter pleinement de l’arrivée du grand public sur Internet pour devenir un des poids lourds de l’Internet.
Où l’on constate que Microsoft a profité de l’effet Internet, mais moins que Cisco.source : Yahoo, 2006
La force d’influence de Microsoft tient donc à son quasi monopole sur les systèmes d’exploitation des internautes. Mais Microsoft a su aussi intégrer les organismes techniques de l’Internet et embaucher des grands noms de l’Internet pour suivre et/ou guider de l’intérieur l’évolution de l’Internet.
Pour mieux mesurer l’influence de Microsoft, il sera intéressant de noter l’impact de son prochain système d’exploitation, Vista, lequel utilisera par défaut le protocole IP version 6. Ce protocole créé par l’IETF existe depuis des années mais il n’arrive pas à décoller et ce malgré le fait que l’infrastructure de l’Internet est déjà compatible IPv6 et que les systèmes d’exploitation actuels, Windows XP, Linux…, intègrent déjà ce protocole.
Une faiblesse de Microsoft tient aussi à son quasi monopole. Suivant la législation des Etats-Unis l’abus du position dominante est interdit et Microsoft est en permanence sous la loupe de la justice américaine. L’Europe n’apprécie pas non plus la façon dont Microsoft peut facilement tuer la concurrence en intégrant un composant gratuitement dans son système d’exploitation comme son logiciel multimédia Media Player. Aussi Microsoft est sur la corde raide. D’un coté le jeu de la concurrence la pousse à tuer ses concurrents, d’un autre coté toute démonstration de force peut se retourner légalement contre elle. Microsoft se doit donc d’agir très prudemment.
Une autre faiblesse de Microsoft est qu’Internet s’est construit sans elle et avec UNIX. Il lui faut donc lutter contre les habitudes ce qui est d’autant plus difficile que Linux et d’autres systèmes d’exploitation basés sur UNIX sont très performants pour tout ce qui est serveur. Les anciens de l’Internet n’ont aucune raison de basculer dans le camp de Microsoft. Pire, de nombreux nouveaux arrivants, comprenant même des institutions, sont séduits par les logiciels libres et apportent leur soutien à ce mouvement.
Les logiciels libres et Linux sont à l’opposé de Microsoft. A la puissance économique de Microsoft, les logiciels libres répondent par la gratuité, à la domination de Microsoft sur les machines des internautes, les logiciels libres répondent par une omniprésence sur les serveurs. Même dans la façon de développer un logiciel, les logiciels libres diffèrent fondamentalement de Microsoft21. Ces différences sont la force des logiciels libres et les raisons des difficultés que Microsoft rencontre pour les contrer.
Les logiciels libres ont été créés avec Internet, ils sont à l’image de l’Internet. Il est difficile de penser l’un sans l’autre. Ils sont utilisés et développés dans le monde universitaire, par les acteurs publics et privés et surtout par des bénévoles de tous horizons. Leur poids sur l’Internet est immense même s’il est difficilement mesurable et sans rapport avec les pouvoirs présentés jusqu’à présent, en particulier car il s’agit d’un mouvement sans dirigeant.
Les gouvernements ne sont pas impuissants face à l’Internet, loin de là. Ils disposent de lois pour imposer leur volonté dans leur pays et des accords internationaux pour l’imposer sur l’ensemble de l’Internet. Suivant les pays, les gouvernements ont d’autres leviers nationaux comme la censure, les contraintes techniques comme un passage unique pour sortir du pays, les incitations financières, la pression sur les entreprises…
Les Etats-Unis disposent en plus, du contrôle de l’ICANN22, donc du DNS, et d’une surreprésentation dans l’ensemble des organismes de gestion de l’Internet.
A côté des gouvernements, certaines associations disposent d’un poids politique important sur l’Internet, en particulier l’Internet Society, qui chapeaute l’IAB, l’IETF et l’IRTF.
Si l’Internet a profondément modifié notre société et a rendu des lois dépassées, les gouvernements suivent attentivement ces modifications et adaptent les lois régulièrement afin de préserver l’État de droit sur l’Internet. Sans entrer dans le détail, car les chapitres XXX à YYY le feront, on peut déjà indiquer quelques domaines encadrés par la loi :
Dans certains cas, comme dans le cas récent en France de la loi DADVSI sur les droits d’auteur, les lois nationales sont l’application d’accord internationaux.
En France, il n’y a guère de domaines de l’Internet non couverts par la loi.
Les organismes nationaux sont le plus souvent le résultat de la loi, par exemple la CNIL a été créée suite à la loi "Informatique et liberté" de 1978. Ces organismes ont pour mission d’encadrer l’exécution de la loi en définissant les vides laissés par la loi afin de pouvoir s’adapter aux évolutions, en gérant les aspects d’enregistrement lorsque la loi le prévoit, en avertissant le gouvernement des changements du paysage et de la nécessiter de faire évoluer la loi, etc.
Ces organismes ont un rôle très important puisqu’ils représentent l’État et construisent l’environnement permettant l’application de la loi. Lorsque la loi est en relation directe avec le fonctionnement de l’Internet, ces organismes deviennent des acteurs majeurs de l’Internet national.
Censure sur Intenet La censure sur Internet est l’application des lois locales ou des usages. Ainsi en France, la loi interdit de faire l’apologie du nazisme ou même de vendre des objets nazis. British Telecom, en application de la loi anglaise, bloque les sites répertoriés comme pédophiles par l’Internet Watch Foundation, censure que l’on retrouve dans d’autres pays. En Corée du Sud sont bloqués les sites pro-Nord-Coréen… Suivant les pays, les techniques ne sont pas les mêmes. En France la censure demandée par la loi est soit respectée, soit contrainte suite à un procès, cf le procès contre Yahoo page XXX. En Tunisie, rien ne sort du pays sans passer par les routeurs et les filtres de la police secrète. Enfin la censure peut ne pas être nationale mais spécifique à un fournisseur d’accès ou à un organisme, comme les écoles des Etats-Unis par exemple.
La mise en œuvre de cette censure dans les pays les plus radicaux est malheureusement le fait d’entreprises occidentales dans la majorité des cas. Les ténors de l’Internet à savoir Google, Yahoo, Cisco, Microsoft ont déjà fait les unes des journaux lors de signature de contrats avec ces pays. La devise de Google, Don’t be evil, ne semble pas peser lourd face à la raison d’être du commerce : l’argent. |
Les organismes français les plus importants de l’Internet français sont l’ARCEP, la CNIL, l’AFNIC et le forum de l’Internet. Avec la démocratisation de l’Internet, d’autres organismes entrent en jeu comme le Conseil de la Concurrence, le Conseil économique et social, le Conseil Général des Technologies de l’Information…
art arcep
Anciennement l’ART, l’Autorité de Régulation des Communications électroniques et des Postes a été créée en 1996 par la loi 96-659 de réglementation des télécommunications, loi définissant les conditions de mise en place, d’ouverture à la concurrence et d’exploitation de réseaux de télécommunication. En 2002 sa mission a été élargie, principalement à la régulation de l’ouverture à la concurrence de la poste.
Concernant Internet, les dossiers de l’ARCEP sont :
Dans tous les cas l’ARCEP fait office d’observateur et de régulateur. Les observatoires et les publications de l’ARCEP sont en général riches d’informations. En tant que régulateur, l’ARCEP attribue les ressources limitées comme les fréquences radio, émet des avis, prend des décisions pour garantir une concurrence loyale entre les opérateurs.
Les lois à la source de l’ARCEP étant les transpositions des directives européennes ouvrant à la concurrence le marché des télécommunications, on retrouve des "ARCEP" dans les différents pays de l’Union Européenne. Elles ont créé au niveau européen l’Independent Regulators Group.
afnic L’Association Française pour le Nommage Internet en Coopération est en charge de la zone .fr et .re, respectivement pour la France et la Réunion. Elle a été créée en 1997 pour remplacer l’INRIA23 qui n’avait plus vocation à s’occuper de cette zone à partir du moment où Internet n’était plus un outil essentiellement universitaire.
Chargée de définir une politique de classement au sein de .fr, l’AFNIC a fait preuve d’originalité en réservant pendant des années la terminaison .fr aux sociétés et en ouvrant .com.fr à tous, ou en créant un espace .tm.fr pour les marques, trademark, tout en acceptant ensuite pagesjaunes.fr puis en indiquant que finalement .fr est aussi possible pour les marques. L’AFNIC a aussi mis en place des espaces sectoriels comme .experts-comptables.fr ou .geometre-expert.fr qui peuvent muter comme l’a fait .barreau.fr pour devenir .avocats.fr. Bref, l’AFNIC n’a pas su définir une politique de nommage cohérente et s’y tenir.
En même temps l’AFNIC a mis en place une politique de réservation très lourde administrativement ce qui a nettement freiné l’enregistrement de domaines en .fr. Il s’agissait de garantir un espace de confiance. Elle a finalement simplifié les procédures en 2004 pour les entreprises et en 2006 pour les particuliers. Le résultat a été immédiat. En 2008 le cap du million de domaines a été atteint.
source : AFNIC, 2010
A titre de comparaison, l’Allemangne avait dépassé le million de domain en 2000 en .de. Le premier trait horizontal à 2 millions de la courbe ci-dessous correspond au maximum de la courbe de l’AFNIC. Notons que la période des années 90 a connue un progression exponentielle même s’il est difficile de le voir dans cette coube, les valeurs d’alors étant écrassée.
source : DENIC, 2010
Aujourd’hui tout résident en France peut réserver un domaine en .fr à condition que le domaine ne soit pas déjà pris et qu’il ne soit pas sur la liste noire. Cette liste noire, appelée la liste des termes fondamentaux non enregistrables, contient les communes, des organismes, des sigles et une liste à la Prévert pas vraiment cohérente24.
Note : le 6 février 2007, le décret n° 2007-162 a défini le rôle de l’office d’enregistrement, qui peut ne plus être l’AFNIC, et les règles de réservation d’un nom de domaine en .fr, cf http://www.foruminternet.org/documents/reglements/lire.phtml?id=1168.
cnil
La Commission Nationale Informatique et Liberté est probablement l’organisme lié à l’informatique et à Internet le plus connu du grand public. Sa mission est de veiller au respect de la loi informatique et liberté, à savoir protéger la vie privée et les libertés individuelles ou publiques face aux risques de fichage informatique.
La CNIL est une autorité morale consultée lorsqu’un texte de loi est en discussion et qu’il y a des risques concernant la vie privée, lorsqu’un projet local ou régional porte les mêmes risques, etc. Elle a aussi un devoir de surveillance des fichiers informatiques nominatifs, en particulier de vérifier leur conformité avec la loi, avec possibilité de saisir la justice. Enfin, depuis la révision en 2004 de la loi informatique et liberté, la CNIL dispose d’un pouvoir de sanction.
Le terrain d’action de la CNIL dépasse l’Internet, elle était néanmoins très attendue sur ce média informatique. Force est de constater que la CNIL a déçu. Créée en 1978, il semble qu’elle n’ait pas su s’adapter et prendre la mesure du phénomène Internet.
Des prix pour la CNIL soulignant la déception… Prix Spécial du Jury Bug Brother 2000 «Pour son incapacité à utiliser avec pertinence tous les contre-pouvoirs que lui donne la loi pour protéger le citoyen contre la montée du fichage accru (contribuables, salariés ou assurés sociaux). Ou pour sa trop grande prudence à se déclarer publiquement contre certains projets sensibles.». Nominé au Big Brother Awards France 2005 pour l’ensemble de son œuvre, Alex Türk, président de la CNIL. |
Le Forum de l’Internet est issu des réflexions du Conseil d’État et du député Christian Paul durant les années 90 quand le gouvernement se demandait comment gérer l’Internet. Les mots clés d’alors étaient régulation, autorégulation et corégulation.
Jusqu’à l’arrivée du grand public, l’Internet s’était autorégulé sans aucun problème. Pour des hommes politiques d’alors, la régulation par l’État d’Internet, comme de celle de tous les médias, semblait naturelle. On avait donc un conflit, le gouvernement n’ayant pas la possibilité de contrôler un Internet international même localement sans le détruire et les internautes français ne pouvant pas ignorer totalement le gouvernement sans risquer d’aller en prison.
Les rapports du Conseil d’État en 1998 et du député Christian Paul en 2000 ont étudié ces aspects en faisant preuve d’une très bonne compréhension du fonctionnement de l’Internet et des internautes. Il s’en est suivi la notion de corégulation qui souligne la coexistence de l’autorégulation des acteurs de l’Internet et la régulation des acteurs publics.
Le Forum des droits de l’Internet est la matérialisation de cette notion de corégulation. «Son ambition est d’associer l’ensemble des acteurs à la construction de la civilité de l’internet.»
En pratique le Forum de l’Internet est un lieu
Parmi les réalisations du Forum, notons la création d’un site d’information spécialisé dans le droit de l’Internet, www.droitdunet.fr.
Les États-Unis ayant créé l’Internet, ils en ont eu le contrôle absolu. Depuis que l’Internet est devenu international, ce contrôle a diminué mais reste assez important pour que les autres pays en prennent ombrage aujourd’hui. Il faut dire que les États-Unis contrôlent
Si les deux derniers points sont difficilement mesurables, le contrôle du DNS a montré ce qu’on peut en faire :
À cela on peut ajouter que les États-Unis sont surreprésenté dans l’ensemble des organismes qui gèrent l’Internet (IETF, ISOC…).
Tout ces points font que les Etats-Unis contrôlent de facto ce qui est contrôlable sur l’Internet.
Poussée par les États qui supportent mal la mainmise des Etats-Unis sur l’Internet, poussée par l’Union Internationale des Télécommunications, UIT, qui rêve de gouverner l’Internet, l’ONU se penche de plus en plus sur les aspects de gouvernance de l’Internet. Elle a ainsi lancé des sommets ouverts, invitant les universitaires, les entreprises et la société civile à participer afin d’ouvrir un dialogue entre tous les acteurs, ceux qui représentent les citoyens et ceux qui ont fait et font l’Internet.
La première manifestation a été le Sommet Mondial sur la Société de l’Information, SMSI, tenu en deux partie, en 2003 et en 2005, sous l’égide de l’UIT, en tant qu’organisation des Nations Unies. Les objectifs officiels de ce sommet était la lutte contre la fracture numérique nord-sud et la gouvernance de l’Internet.
Si ce sommet a bien réuni un nombre impressionnant de personnalités et a permis d’aborder les problèmes de gouvernance, force est de constater que peu de choses ont changé dans le fond. Ainsi le principal, le contrôle des Etats-Unis sur le DNS, n’est pas remis en question.
Cependant l’accord obtenu à la fin de la seconde partie en 2005, dit l’agenda de Tunis, a permis certaines avancées :
La suite de l’article souligne l’importance du secteur privé, de la société civile, des organisations intergouvernementales et internationales. L’article suivant souligne la précieuse contribution du milieu universitaire. Mais la page est tournée, les États revendiquent le contrôle de l’Internet, ce qui ne fait qu’officialiser une réalité de plus en plus nette.
Quelques vœux pieux ont donc été dirigés contre les États-Unis qui ont été obligés de céder officiellement. Mais rien ne garanti que cela se traduira dans les actes.
L’autre point fort du SMSI concernant la gouvernance de l’Internet est la création d’un forum de la gouvernance de l’Internet où seront abordés les aspects politiques de cette gouvernance. Cela exclu donc les aspects techniques comme la gestion du DNS.
La première édition de ce forum a eu lieu à Athènes en octobre 2006. Là encore la volonté d’un processus multipartite engageant les États, les universitaires, les entreprises et la société civile a permis à chacun de comprendre le point de vue des autres. Il semble qu’il s’agisse du principal succès de ce sommet qui n’avait pas vocation à prendre des décisions.
La deuxième édition a eu lieu en novembre 2007 à Rio de Janeiro et la troisième est prévu à Hyderabad fin 2008.
Il s’agit de se focaliser sur les problèmes politiques en relation avec Internet sans trop s’approcher des aspects techniques comme le DNS. Au 3e sommet il est prévu de parler du cyber-crime, de la vie privée, du multilinguisme... Le point le plus technique sera le passage d’IPv4 à IPv6.
source : AFNIC, 2008
isoc
Créée en 1991, l’Internet Society a pour but de participer à la croissance de l’Internet tout en veillant à sa cohérence, au respect des protocoles ouverts et à la possibilité pour quiconque de rejoindre le réseau. Cela inclut aussi un rôle de liaison avec les gouvernements, de communication avec les médias et de collaboration avec les autres organismes susceptibles d’agir sur l’Internet.
Le volet technique de l’ISOC est délégué à l’IAB, l’IETF et les autres organismes présentés dans le chapitre sur le pouvoir technique. L’ISOC est l’enveloppe administrative et financière, mais sans droit de regard sur les aspects techniques.
source : AFNIC, 2008
Les autres missions de l’ISOC sont politiques et éducatives. En tant que représentant des internautes d’une part et des organismes techniques d’autre part, l’ISOC est un interlocuteur naturel pour les gouvernements et les acteurs public. On retrouve l’ISOC dans toutes les conférences sur Internet, en particulier à travers ses “chapitres" locaux qui sont les branches locales. Le chapitre français de l’ISOC est simplement l’ISOC France.
La mission éducative consiste principalement en des formations et de l’assistance technique dans les pays du tiers-monde.
On retrouve ces différentes missions dans la répartition des dépenses de l’association :
source : ISOC, 2006
Les rentrées d’argent sont essentiellement dues à la gestion du TLD .org qui lui a été attribué par l’ICANN en 2002. Sachant qu’il y a environ 5 millions de domaines en .org et que l’ISOC partage 2$ par domaine avec son bureau d’enregistrement , cette délégation lui a rapporté 3,4 millions de dollars en 2005.
L’EFF est une association américaine dont le but est la défense de la liberté sur l’Internet. Née en 1990, ses actions en justice sont une trace de l’histoire de l’Internet. Citons parmi ces procès gagnés par l’EFF :
L’EFF s’est aussi fait connaitre en développant la machine à casser le système de chiffrage DES, remplacé depuis par l’AES, cf page ??.
Textes sur la gouvernance de l’Internet :
Deux sites, parmi de nombreux autres, qui surveillent l’ICANN