jeudi 28 octobre 2010

Conflit, Ritualisation, Droit : La gestion de la Diversité - Yves MICHAUD - 100 mn - UTLS - 25/07/2002



Conflit, Ritualisation, Droit : La gestion de la diversité - Yves MICHAUD - 100 mn - UTLS - 2002
Conférence Université de tous les savoirs - Durée : 100mn 51s - Date : 25/07/2002
Disciplines : Sociologie, Philosophie, Sciences du vivant

Yves MICHAUD : Professeur de Philosophie à l'Université de Rouen, Directeur de Programme au Collège International de Philosophie, Président de la Commission Art du Centre National du Livre, Chargé de la programmation et de la coordination de l'Université de tous les savoirs auprès de la Mission pour la célébration de l'an 2000. Concepteur de l'Université de tous les savoirs et des forums de la démocratie et du savoir. Ancien élève de l'Ecole Normale Supérieure de la rue d'Ulm, Agrégé de Philosophie, Docteur ès-Lettres.

Minutage et Plan de la conférence "Conflit, Ritualisation, Droit : La gestion de la diversité" :
- 02:42 - Présentation
- 01:44 - Introduction
- 07:21 - Les comportements naturels face à la diversité
- 13:34 - La diversité humaine
- 10:32 - La société et les règles
- 06:20 - L'organisation par la règle
- 14:59 - La violence et la guerre
- 07:24 - La ritualisation
- 08:25 - Conclusion
- 16:37 - Questions, partie 1
- 11:13 - Questions, partie 2

Psychologiquement, la relation humaine à la diversité est ambivalente : la diversité suscite la curiosité et stimule ; en même temps elle apparaît comme une menace et déclenche l'agressivité. Les sociétés humaines ont constamment affaire à la diversité. A commencer par celle qui est au coeur de la reproduction. La diversité est en fait dans les individus sous tous les points de vue : physique, mental, passionnel, générationnel. Cette diversité a des effets ambivalents. D'une part, elle permet le renouvellement, l'invention, l'innovation, la réponse aux défis et aux crises. D'un autre côté, elle perturbe les règles, routines, procédures, équilibres mis au point par les groupes pour survivre. Elle doit donc être traitée, gérée, régulée par les groupes .

On peut distinguer deux modes principaux de gestion de la diversité. Le premier mode est celui des traitements violents : anéantissement, viol, confinement, conversion et conquête, assimilation, mais aussi sacralisation, stigmatisation de ce qui est "autre". Une différence importante au sein de ce groupe tient à la différence entre les stratégies de destruction et celles d'assimilation. Le second mode de gestion passe par la production de règles dans un éventail de qui va des routines aux interdits et des coutumes aux règles juridiques. De ce point de vue, les sociétés sont des systèmes de règles plus ou moins cohérentes pour traiter les différences. Une différence importante au sein de ce groupe est celle entre les règles d'assimilation et les règles de différenciation.

Le droit traite à la fois tous les hommes de la même manière et en fonction de leurs différences. Qu'il s'agisse des modes de gestion violents de la diversité ou des modes de gestion par la régulation, ils répondent tous à des finalités sociales et sont soumis à des évaluations morales. Les finalités sociales peuvent entrer ou non en contradiction avec celles de la moralité, mais subsiste la question de savoir à quelles finalités la moralité elle-même répond. Yves Michaud

Source, Biographie, Liens : Canal-U TV - UTLS : Conflit, Ritualisation, Droit : La gestion de la diversité - Yves MICHAUD

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ... Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTVL'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Propriété intellectuelle et nouvelles technologies - A la recherche d’un nouveau paradigme - Michel VIVANT - 84mn - UTLS - 16/09/2000



"Propriété intellectuelle et nouvelles technologies - À la recherche d’un nouveau paradigme" par Michel Vivant - 84mn - 16/09/2000
Producteur : Mission 2000 en France - Université de Tous Les Savoirs - Canal-U TV (Canal-U - UTLS)

Michel VIVANT : Professeur à l'Université de Montpellier I. - Responsable de l'ERCIM (Équipe de Recherche Créations Immatérielles et Droit), aujourd'hui composante de l'UMR 815. Membre des commissions et groupes d'experts cités plus haut. Doctorat en droit, Agrégation de droit, Doctorat Honoris Causa de l'Université de Heidelberg.

Avec les " nouvelles technologies " qui sont les technologies de l'information et de la communication, de l'informatique et de l'Internet, le droit de la propriété intellectuelle se voit confronté à un objet nouveau pour lui : l'information, ou, à tout le moins, pour lequel il est mal préparé, quand l'information surgit, brute, comme valeur à appréhender. Cela touche bien des branches de la discipline. Qu'on songe à la question de la brevetabilité des séquences génétiques (qui sont une forme d'information codée). Mais c'est le droit d'auteur et les droits apparentés qui sont les premiers concernés. Avec le surgissement de " biens informationnels ", c'est une autre conception de ces droits qui pointe. Les logiciels, les bases de données ou les liens hypertextes ont peu à voir avec les oeuvres traditionnelles et ont nécessairement un fort effet déstabilisateur à l'égard d'un droit qui n'a pas été conçu pour eux. Le triomphe de la logique marchande est patent et va de pair, via notamment l'Internet, avec le spectre de la mondialisation. On ne saurait donc s'étonner que toutes sortes d'antagonismes s'exacerbent et qu'on assiste dans le même temps à une montée en force de la propriété intellectuelle et d'une contestation de celle-ci. Au final, il paraît bien difficile de faire l'économie d'une interrogation sur le nouveau paradigme qu'il faudrait élaborer pour un droit nouveau adapté à des réalités nouvelles.

Minutage et Plan de la conférence "Propriété intellectuelle et nouvelle technologie" :
- 02:10 - Présentation
- 12:07 - Introduction
- 05:37 - Les biens informationnels (dans le droit)
- 07:40 - Le triomphe de la logique marchande
- 06:48 - Le spectre de la mondialisation
- 11:54 - L'apparition des antagonismes forts
- 04:14 - Se tourner vers d'autres paradigmes
- 02:03 - Conclusion
- 31:32 - Questions

Texte de la 260e conférence de l'Université de tous les savoirs donnée le 16 septembre 2000

Propriété intellectuelle et nouvelles technologies - À la recherche d’un nouveau paradigme par Michel Vivant

Propriété intellectuelle et nouvelles technologies : voilà ce qu’à la manière du Canard Enchaîné on pourrait appeler un « apparentement terrible ». C’est que ces « nouvelles technologies » (bel anglicisme et figure de style convenue, soit dit en passant) sont les technologies de l’information et de la communication, technologies de l’informatique et de l’Internet, deux univers qui, en quelques décennies, ont bousculé notre appréhension du monde, au point qu’il est usuel de parler de société postindustrielle ou de société de l’information sans d’ailleurs toujours l’esprit critique souhaitable.

Cette information qui en est le soubassement, est, cependant, présente ailleurs et là encore déstabilisante pour les propriétés intellectuelles : qu’on songe à l’épineuse question de la brevetabilité des séquences génétiques qui sont aussi, codée en une certaine forme, de l’information.

À toutefois en rester aux seules technologies de l’information et de la communication, qu’en est-il donc de leur confrontation à la propriété intellectuelle, aux propriétés intellectuelles plus exactement puisque celles-ci sont multiples, des brevets aux droits des artistes-interprètes en passant par les droits sur les obtentions végétales ? Elle se présente de manières très diverses. Je ne me hasarderai pas à un tableau exhaustif, mais j’évoquerai la marque, le brevet, le droit d’auteur et les droits apparentés qui sont au cœur de notre réflexion.

Les marques ont beaucoup fait parler d’elles dans leur confrontation avec les noms de domaine qui sont un élément clef de la navigation sur Internet. Il faut assigner à l’une, la marque, comme à l’autre, le nom de domaine, la place qui lui revient. Ce nom est-il plus qu’une adresse, doit-il être tenu pour un nouvel identifiant (comme existent, outre la marque, l’enseigne ou le nom commercial, par exemple), quel statut lui réserver ? Nous en sommes aux premières interrogations. Tout au plus peut-on noter qu’avec le nom de domaine, la règle ne se borne pas à gérer la rareté comme il en va souvent... mais peut-être l’organise.

Avec le brevet, c’est une question d’adaptation d’un droit, qui fut pensé au XVIIIe pour la mécanique, qui se pose. Le modèle était alors la machine animée de rouages telle l’horloge servant à Voltaire à fonder son Grand Horloger et voici que l’information, avec le logiciel, devient l’âme de la technique, lors même que, pour le sens commun, information et technique appartiennent à deux ordres différents. L’Office européen des Brevets de Munich n’échappe pas, d’ailleurs, à ces ravages du sens commun. Le nominalisme y triomphe. L’essentiel est d’éviter les mots interdits. Et pourtant il y a peu de mots plus polysémiques que celui d’information ; ceux qui font valoir que la machine de ce temps est une « machine virtuelle » et qu’on peut par le détour des bits obtenir ce qui passait naguère par roulements à billes et roues dentées sont dans le vrai.

Si la Convention dite sur le Brevet européen de Munich de 1973 interdit la prise de brevets sur des programmes d’ordinateur, cela n’empêche pas l’Office — qui vit des brevets — de délivrer de tels titres, dans un grand bricolage que la doctrine viendra, plus ou moins, doter de rationalité. Sous forte pression américaine, la question n’est peut-être déjà plus de savoir si un logiciel, voire un moteur de recherche, est brevetable. Car, sous cette pression, le brevet tend à changer de visage et à quitter le monde de l’industriel ou du technique pour investir tout le champ de l’« utile » avec le vague extrême que comporte ce mot.

Impérialisme pour impérialisme, c’est vers le droit d’auteur et ce que j’ai appelé les « droits apparentés », droits dits voisins mais aussi autres droits dans la mouvance du droit d’auteur, qu’il faut se tourner. C’est dans la perspective qui est ici la nôtre que la confrontation conduit aux remises en cause les plus radicales.

Car le droit d’auteur de cette charnière entre deux millénaires est bien éloigné de celui dont Beaumarchais puis Hugo s’étaient faits les promoteurs. Qu’il s’agisse du droit d’auteur proprement dit que connaissent l’Europe continentale, l’Amérique latine, bien des pays arabes, les pays de l’Afrique noire francophone, ou du copyright anglo-saxon (qui n’est ni tout à fait semblable, ni tout à fait un autre), la brèche est apparue avec l’idée que droit d’auteur ou copyright appréhendaient des formes, comme telles, littéraires, musicales, plastiques... mais des formes. Or tout est forme. Il n’y a pas de produit de l’esprit humain qui soit in-forme. Mais, à ce compte là, le droit d’auteur est partout, s’il est vrai, selon un mot que j’affectionne, que l’immatériel, produit de l’esprit, est partout.

Un mélange détonant

Technologies de l’information et de la communication, immatériel, information, droit d’auteur : voilà qui va se conjuguer en un mélange étonnant et détonant et obliger à de sévères révisions. Ce sont des créations nouvelles qui surgissent : logiciel, base de données, multimédia... De vieilles créations sont « revisitées » : musiques ou images numérisées par exemple. De nouveaux instruments sont disponibles : synthétiseur ou logiciel de création assistée. De nouveaux modes de création se font jour : sampling ou animation 3D pour ne citer que ceux-là.

Le vieux droit est-il caduc ? Certains l’affirment, comme John P. Barlow, fondateur de l’ Electronic Frontier Foundation, qui a déclaré péremptoirement : « Everything you always knew about intellectual property is wrong ». Mais il y a aussi les tenants d’un droit marmoréen pour qui les « nouvelles technologies » ne sont que péripéties et qui reste et doit rester (à moins que cela ne soit l’inverse) intact, à travers vents et marées, coups de boutoirs logiciels et bourrasques des réseaux.

Comme souvent la vérité se trouve entre les deux extrêmes. Avec le surgissement des « biens informationnels » dans le champ du droit, une autre perception du droit d’auteur et des droits apparentés pointe. Le triomphe de la logique marchande va de pair avec le spectre de la mondialisation. On ne s’étonnera donc pas que toutes sortes d’antagonismes s’exacerbent. D’où il paraît nécessaire, au-delà des interrogations « de cuisine » (juridique s’entend), de se demander vers quel nouveau paradigme il faudrait se tourner... La suite du texte de la conférence : Propriété intellectuelle et nouvelles technologies par Michel Vivant

Source Canal-U TV : Propriété intellectuelle et nouvelles technologies - Michel Vivant - 2000

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Protection de la vie privée et société de surveillance et d'information - Cécile ALVERGNAT - 56mn - UTLS - 15/09/2000



Protection de la vie privée et société de surveillance et d'information - Cécile ALVERGNAT - 56mn - "Mission 2000 en France" - 15/09/2000
Cécile ALVERGNAT : Directrice Générale de l'Échangeur : Centre Européen de Réflexion et de Formation sur les Nouvelles Technologies du Commerce de Biens et de Services.

L'avènement d'une société et d'une économie de l'information dont Internet en est l'infrastructure la plus importante, représente l'un des phénomènes majeurs de la fin du XXe siècle. L'actualité nous permet d'assister en direct au bouleversement apporté par les nouvelles technologies de l'information et de la communication (NTIC) dans la vie quotidienne de chacun, que ce soit à travers l'école, le lieu de travail, le domicile. De nouvelles formes d'échanges s'imposent, que ce soit au niveau de l'information, de l'économie et du commerce, de la politique, de l'administration ; son accessibilité mondiale en fait un formidable outil au service de la liberté d'expression et des échanges entre les personnes.
Avec la micro-informatique, nous avions déjà mesuré et constaté les avantages et les inconvénients des capacités sans cesse améliorées de traitement, de stockage et de transfert des informations. Aujourd'hui, avec l'essor d'Internet et sa mondialisation, nous découvrons réellement ce que change dans notre vie, l'accès généralisé aux informations, la facilité de leur collecte et de leur traitement, mais également la facilité de leur transmission...

Minutage et Plan de la conférence "Protection de la vie privée et société de surveillance et d'information" :
- 01:51 - Présentation
- 03:12 - Introduction
- 07:41 - Les nouvelles formes de l'échange
- 07:41 - Internet, puissant instrument de collecte de données
- 06:18 - Des moyens pour créer la confiance et la sécurité
- 07:41 - Le retour aux valeurs républicaines
- 02:36 - La formation de tous, entreprises et citoyens
- 18:47 - Questions

Texte de la 259e conférence de l'Université de tous les savoirs donnée le 15 septembre 2000.
Protection de la vie privée et société de surveillance et d'information par Cécile ALVERGNAT

L'avènement d'une société et d'une économie de l'information dont Internet en est l'infrastructure la plus importante, représente l'un des phénomènes majeurs de la fin du XXe siècle. L'actualité nous permet d'assister en direct au bouleversement apporté par les nouvelles technologies de l'information et de la communication (NTIC) dans la vie quotidienne dechacun, que ce soit à travers l'école, le lieu de travail, le domicile. De nouvelles formes d'échanges s'imposent, que ce soit au niveau de l'information, de l'économie et du commerce,de la politique, de l'administration ; son accessibilité mondiale en fait un formidable outil au service de la liberté d'expression et des échanges entre les personnes.

Avec la micro-informatique, nous avions déjà mesuré et constaté les avantages et les inconvénients des capacités sans cesse améliorées de traitement, de stockage et de transfert des informations. Aujourd'hui, avec l'essor d'Internet et sa mondialisation, nous découvrons réellement ce que change dans notre vie, l'accès généralisé aux informations, la facilité de leur collecte et de leur traitement, mais également la facilité de leur transmission.

Les NTIC créent de nouvelles formes d'échanges

Plusieurs phénomènes complémentaires y contribuent.
L'accès à Internet qui se développe d'une manière importante : à ce jour, sont connectés au réseau Internet, 7 millions de personnes en France, 90 millions en Europe et 360 millions dans le monde.
L’Internet n’est pas un monde homogène et uniforme, de ce fait ce n’est pas un monde stable : par leur nature, ces technologies ouvrent de nombreuses voies pour de nouveaux usages dont à ce jour nous n’avons perçu qu’une faible part. D’autant plus que l’évolution technologique évolue avec une rapidité sans précédent, due au fait que les transformations sociales et techniques se nourrissent directement les unes des autres et s’enrichissent mutuellement en continu.

Une découverte faite à l’un des bouts du monde peut être testée immédiatement sur plusieurs continents, observée, transposée et déployée avec une rapidité inégalée à ce jour. Ce raccourcissement de l’espace temps et cette réactivité immédiate changent radicalement les donnes en matière d'échange. Ajoutons qu'Internet est constitué d’un ensemble de fonctionnalités qui permettent d’imaginer des usages très nombreux et totalement nouveaux.
Tout ceci contribue au fait qu'Internet n'est pas encore un monde stable.

L'Internet est de par sa nature une technologie universelle, pensée pour convenir à tous types de réseaux et d'ordinateurs. Les protocoles de communication de l'Internet sont bien plus flexibles que ceux que nous connaissions jusqu'à présent.
De ce fait, Internet offre de nombreuses possibilités. Il s'adapte à de multiples terminaux. Les télévisions, les téléphones mobiles, les assistants numériques personnels, voire d'autres objets, livre électronique e-book, terminaux MP3 pour la musique, four à micro-onde, etc… qui peuvent communiquer chacun et ensemble avec le réseau. Il apporte une nouvelle dimension à l'échange d'informations et de données puisqu'il réunit sur un même support, des médias jusqu'alors séparés : le son, l'image fixe et animée et le texte. Il s'achemine au travers de réseaux divers tels que : téléphonie, câble, satellite, électrique, etc... La suite du texte de la conférence - Document Format Pdf : Protection de la vie privée et société de surveillance et d'information par Cécile ALVERGNAT

Source, Biographie, Documents - Canal-U TV : Protection de la vie privée et société de surveillance et d'information - Cécile ALVERGNAT

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN - Cryptographie, Propriété intellectuelle - 89mn - UTLS - 14/09/2000



Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN - 89mn - UTLS - 14/09/2000
Thomas-Xavier MARTIN : Ingénieur diplômé de l'École polytechnique diplômé en droit et sciences criminelles de la faculté de Sceaux Officier de Police Judiciaire.

Cette conférence essaiera de jeter un regard original sur certains aspects de la révolution numérique : plutôt que de tenir un discours cent fois entendu sur les dangers du piratage et sur la criminalité informatique, je vais tenter, avec un regard d'ingénieur, de matérialiser les enjeux et les dangers véritables du tout-numérique. Pour cela, après avoir introduit les notions techniques dont j'aurai besoin, je m'attacherai à expliquer les faiblesses fondamentales des systèmes d'information en matière de sécurité. Puis, j'essaierai de dissiper l'illusion entretenue sur la cryptographie comme solution aux problèmes de sécurité. Le cas de la propriété intellectuelle me servira ensuite à illustrer comment nous risquons de perdre une grande partie de nos libertés fondamentales si nous demeurons incapables d'accepter les conséquences de la révolution numérique. J'esquisserai en guise de conclusion les grandes lignes des réformes juridiques qu'il nous faut envisager dès aujourd'hui.
Source, Biographie, Liens - Canal-U : Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN

Minutage et Plan de la conférence :
- 00:26 - Présentation
- 05:01 - Introduction
- 12:51 - Le cadre technique: la révolution numérique
- 12:09 - "L'ordinateur de Satan"
- 25:00 - L'illusion cryptographique
- 12:44 - Propriété intellectuelle et libertés publiques
- 07:38 - Droit et stabilité sociale: les enjeux de la réforme
- 09:16 - Conclusion
- 04:42 - Questions

Texte de la 258e conférence de l'Université de tous les savoirs donnée le 14 septembre 2000.

Insécurité Informatique : épouvantails et dangers réels de la révolution numérique par Thomas-Xavier Martin

Le cadre technique : la révolution numérique

L'humanité dispose depuis quelques années d'un langage universel qui lève la vieille malédiction de Babel. Ce langage, ce sont les chiffres : nous savons en effet désormais numériser presque tous les véhicules de l'esprit humain : le texte, le son, les images fixes ou animées, et même certaines idées mathématiques (qui traitent de la programmation des ordinateurs).

Numériser, c'est traduire, coder, transcrire, représenter quelque chose avec des chiffres. La révolution numérique tient dans la simple affirmation : « les chiffres sont un langage universel. »

Numériser des textes ou du son ne serait pas d'un grand intérêt si nous ne disposions pas de machines pour manipuler ces données ; selon la langue, l'accent est mis sur certains types de manipulation.

En anglais, on dit computer, c'est-à-dire calculateur ; en français, le linguiste Jacques Perret choisit en 1954 un mot du vocabulaire théologique qui met l'accent sur le classement : « ordinateur ». Le suédois a préféré rester plus générique : comme on appelle motor (moteur) une machine qui produit du mouvement, on appellera dator les machines qui traitent les données ( data).

Tout l'intérêt des ordinateurs vient de ce qu'ils sont programmables : ils peuvent suivre une série d'instructions conçues ad hoc pour le problème à traiter. Depuis l'EDSAC, un des premiers ordinateurs construit à Cambridge (Royaume-Uni) en 1949, tous les ordinateurs sont des machines de von Neumann, ce qui veut dire qu'ils ne font pas de différence interne fondamentale entre les données qu'ils doivent traiter et les instructions (numérisées) pour les traiter. L'architecture de von Neumann est plus souple et plus efficace que les architectures concurrentes, ce qui a conduit à son adoption universelle, mais nous verrons que cette souplesse se paie en termes de sécurité.

La révolution industrielle a attendu le développement des réseaux de chemin de fer pour exploser : seul le réseau de distribution rendait rentable la fabrication de masse. De la même façon, la révolution numérique n'affecte profondément nos vies que depuis la naissance d'un réseau mondial d'échange de données entre les ordinateurs. Ce réseau est l'Internet.

L'architecture de l'Internet a été développée initialement pour permettre des échanges entre des centres de calcul militaires. Le réseau devait pouvoir survivre à la destruction de certains de ses nSuds ; en conséquence, il n'y a ni centre ni point vital (qui serait une trop belle cible), et les itinéraires empruntés pour transmettre des données d'un point A à un point B sont imprévisibles (car l'acheminement des données ne doit pas dépendre d'un point vital).

Dans les années suivantes, l'Internet a surtout été utilisé pour des échanges entre chercheurs. Les deux caractéristiques précédentes convenaient parfaitement aux habitudes des communautés universitaires :

- pas de centre, donc pas d'autorité capable de censurer certains travaux, et pas d'autre évaluation du travail publié que celle de ses pairs connectés au réseau ;

- une diffusion imprévisible, et donc incontrôlable, car les idées doivent circuler librement pour porter fruit ; de même, on peut seulement revendiquer la paternité d'une idée, sans aucun moyen de restreindre les applications ou l'usage qui en sont faites. En effet, c'est quand une vieille idée est utilisée de façon nouvelle que la science avance !

Pendant cette période ont été inventés l'essentiel des procédés techniques aujourd'hui utilisés. Directement issus de la recherche publique, aucun brevet ou copyright ne restreint leur usage, ce qui a considérablement facilité leur adoption (une conséquence intéressante est que l'Internet qui n'avait ni centre administratif ni centre politique n'a pas non plus de centre technique). Sur ces bases, le réseau s'est développé jusqu'à atteindre une taille critique qui tue dans l'Suf tout projet concurrent. En s'étendant au grand public, la communauté des utilisateurs a cependant gardé les valeurs « morales » des pionniers : l'Internet est libre et ouvert, décentralisé, non-commercial, sans gouvernement ni censure. Tout est alors en place pour faire exploser deux siècles de droit et de constructions politiques...

L'ordinateur de Satan

Après avoir décrit le décor, il nous faut maintenant expliquer pourquoi il est si difficile de sécuriser les systèmes traitant des données numériques.

La plupart des objets conçus aujourd'hui le sont en suivant une approche « fonctionnelle » : l'objet doit avoir une certaine fonctionnalité, rendre un certain service, permettre d'accomplir quelque chose. La méthode de conception consiste à créer, tester, corriger ce qui ne va pas, et recommencer jusqu'à l'obtention d'un résultat satisfaisant.

Certains produits potentiellement dangereux sont quant à eux conçus selon une approche « anti-accident » (l'anglais, langue usuelle des ingénieurs, fait une distinction entre safety engineering, terme rendu ici par « approche anti-accident », et security engineering traduit plus loin par « approche de sécurité ». Le français traduit safe et secure par le même mot : « sûr », ce qui complique l'exposé des différences entre les deux approches) : on peut notamment mentionner tout ce qui a trait aux transports (avions, trains, voitures, etc.) ou à l'accueil du public (stades, hôtels), ce qui est utilisé par des enfants (jouets), ou par des adultes de façon répétitive et machinale (machines-outils) ou même par le grand public (outils mécaniques divers). L'objectif ici n'est plus de garantir que l'objet fonctionnera comme on l'attend dans la plupart des cas ; il s'agit simplement de faire en sorte que dans des circonstances exceptionnelles, les dysfonctionnements ne virent pas à la catastrophe...

À titre d'exemple, rappelons qu'une tribune de stade ne doit pas s'écrouler quand des supporters enthousiastes sautent dessus en rythme, qu'un avion ne doit pas s'écraser quand une pièce métallique traîne sur la piste d'envol, qu'un train immobilisé et en flammes doit permettre l'évacuation des voyageurs ou qu'un pétrolier doit subir les tempêtes hivernales de la Manche sans enduire la moitié de la Bretagne d'une épaisse couche de fuel...

L'ingénieur chargé d'éviter les accidents dès la conception se bat contre la loi de Murphy : cet aphorisme formalisé dans l'aéronautique américaine des années cinquante stipule que tout ce qui peut arriver de nocif arrivera ( Whatever can go wrong, will !) L'objectif de l'approche anti-accidents est d'éviter une catastrophe face à des conditions exceptionnelles ; il n'est pas nécessaire que la fonctionnalité initiale du produit persiste, il est juste suffisant d'empêcher le pire. Pour lutter ainsi contre le hasard, on imagine les pires conditions vraisemblables, et on essaie de prévoir une façon de limiter les conséquences néfastes. Là encore, les tests jouent un grand rôle.

L'approche de sécurité est complètement distincte : elle n'est utilisée que pour concevoir des produits protégeant des biens contre la malveillance. Il ne s'agit plus de lutter contre le hasard, l'inattention ou des conditions difficiles ; il faut contrer un adversaire intelligent et déterminé, qui va provoquer des dysfonctionnements au pire moment et de la pire façon. Contrairement aux autres produits issus de l'approche fonctionnelle, un produit de sécurité n'est pas utile pour ce qu'il permet de faire, mais pour ce qu'il interdit.

Pour un produit de sécurité, les tests ne sont pas un élément central de la conception. Un test de sécurité ne prouve rien : imaginez qu'on fasse tester une serrure par un cambrioleur professionnel ; s'il parvient à la crocheter, le test prouve que la serrure n'est pas suffisamment sûre. Mais s'il ne parvient pas à la crocheter, le test n'a rien prouvé, et en tous cas certainement pas que personne n'arrivera jamais à crocheter la serrure...

Il est impossible de prouver la sûreté d'un produit. Tout au plus peut-on l'analyser en profondeur et vérifier que des attaques classiques ne marchent pas. De tels audits doivent s'exercer sur un périmètre très large et inclure la totalité du système utilisé : il est inutile de blinder sa porte et de renforcer sa serrure si les murs ne sont pas solides...

L'image de la serrure est utile, mais aussi trompeuse. Les serrures modernes sont devenues extrêmement complexes, et on pourrait penser qu'un système complexe sera plus sûr qu'un système simple. En général, c'est faux, et les systèmes complexes sont peu sûrs pour deux raisons.

La première raison tient directement à leur taille : plus il y a d'éléments et de tâches à accomplir, plus il y a de chances qu'au moins une faille existe. Le caractère modulaire des systèmes complexes aggrave le problème : les ingénieurs divisent pour régner et fragmentent un problème complexe en de nombreux sous-problèmes plus simples. La modularité est nécessaire pour résoudre des problèmes difficiles, mais elle a aussi pour conséquence de multiplier les failles potentielles : chaque module, mais aussi chaque interaction entre plusieurs modules est le lieu potentiel d'une faille de sécurité, et le nombre d'interactions augmente exponentiellement avec le nombre de modules.

La deuxième raison est directement liée aux analyses nécessaires pour rechercher des failles de sécurité : un système complexe est plus difficile à comprendre, à se représenter, à analyser. Au-delà d'une certaine taille, l'analyste ne peut plus avoir en tête une image mentale complète et correcte du système, et la probabilité qu'une faille passe inaperçue augmente.

Rappelons qu'il suffit d'une seule faille pour compromettre l'usage d'un système : la sécurité de l'ensemble est égale à la sécurité du maillon le plus faible... Un système complexe perd sur tous les fronts : la chaîne est plus longue, la modularité rajoute des maillons, le grand nombre de maillons empêche de tous les tester, voire même d'avoir conscience de leur existence à tous.

Prenons ce que nous venons de voir sur l'ingénierie de la sécurité et appliquons-le aux systèmes numériques : nos ordinateurs peuvent-ils être sûrs ? Au contraire, il est très probable qu'ils soient de vraies passoires... Tout concourt à cet effet !

D'abord, le marché pousse inlassablement à la complexité : plus de choix, plus d'options, plus de capacités, plus de fonctionnalités, plus de choses possibles ! Les décisions d'achat des ordinateurs se prennent en comparant des listes de fonctionnalités, et la concurrence effrénée de ces marchés pousse chaque fabricant à rendre ses machines encore plus complexes, encore plus souples, encore plus puissantes, de façon à encourager l'obsolescence des matériels installés et leur renouvellement d'année en année.

Rappelons ensuite qu'améliorer la sécurité d'un système coûte cher : il faut des études sans fin, des analyses coûteuses, et tout ça pour un résultat sans garantie, car la sécurité ne se prouve pas. Comme les fabricants ne peuvent pas se targuer de la sécurité de leur système (ils n'en sont pas certains, même après avoir dépensé beaucoup d'argent.), la sécurité de leurs produits n'est pas un argument de vente, et elle est donc maintenue au minimum acceptable par le client.

Ici comme ailleurs, c'est le client qui fixe le niveau de sécurité des produits du marché ; mais presque tout le monde a une idée du niveau de sécurité acceptable pour une serrure, un antivol de vélo ou une porte blindée, alors que presque personne ne dispose des compétences nécessaires pour évaluer le niveau de sécurité d'un ordinateur.

Enfin, les données numériques qui circulent sur l'Internet ont quelques particularités gênantes... Prenons pour exemple une suite de chiffres qui représentent un document envoyé par Alice à Bob. Ces chiffres circulent sur l'Internet entre l'ordinateur d'Alice et celui de Bob, et il se trouve qu'ils passent sous les yeux de Charlie. Si Charlie copie la suite de chiffres, il obtient une copie de la lettre d'Alice absolument identique à celle reçue par Bob. Cette copie est si parfaite que la notion d'original disparaît : les deux copies sont originales. Pire encore, ni Alice ni Bob n'ont aucun moyen de détecter à partir de leurs exemplaires qu'une copie a eu lieu. Si Charlie intercepte le flux de chiffres destiné à Bob, puis le renvoie à Bob sous son propre nom, Bob n'a aucun moyen de savoir que le document provenait initialement d'Alice et non de Charlie. Si Charlie intercepte le flux de chiffres et le modifie avant de le renvoyer à Bob sous le nom d'Alice, Bob n'a aucun moyen de détecter que le document a été modifié entre Alice et lui.

En d'autres termes, quand on parle des données numériques circulant sur l'Internet, on peut dire que la copie est parfaite et indétectable, la modification est indécelable et l'attribution est impossible.

La dernière touche sur le tableau est encore plus subtile : comme nous l'avons indiqué plus haut, les ordinateurs sont utiles parce qu'ils sont programmables et donc adaptables à différents problèmes. Mais ces programmes sont eux-mêmes numérisés et gérés par la machine indifféremment des données numériques qu'ils doivent traiter (c'est le concept de machine de von Neumann). Donc, ils ont les mêmes propriétés : copie parfaite et attribution impossible, mais surtout modification indécelable...

Récapitulons :

- l'ingénierie de la sécurité est extrêmement difficile ;

- le marché de l'informatique génère des systèmes de plus en plus complexes, et donc de moins en moins sûrs ;

- ce même marché n'a aucune tendance à améliorer la sécurité de ses produits ;

- les données numériques sont intrinsèquement difficiles à sécuriser ;

- les programmes des ordinateurs sont eux-mêmes numériques, et donc difficiles à sécuriser.

Le professeur britannique Ross Anderson a donc pu dire à juste titre que la sécurité informatique était un défi similaire à la programmation contre son gré de l'ordinateur de Satan.

L'illusion cryptographique

La cryptographie est la science des codes secrets. La cryptographie traditionnelle proposait une solution au problème de la confidentialité, mais pas aux autres questions soulevées ci-dessus. Un immense espoir naquit au début des années 1980, avec la naissance de nouvelles techniques de cryptographie, dites « asymétriques ». On allait pouvoir signer des documents numériques, les transmettre en toute confidentialité, en garantissant leur intégrité, aux destinataires prévus et seulement à eux.

Petit à petit, les universitaires honnêtes ont commencé à se rendre compte que le problème n'était pas si simple, comme nous allons l'expliquer. Mais avec l'explosion de l'Internet, ce qui n'était qu'une discipline universitaire dont l'application se limitait à la diplomatie est devenu un secteur industriel en plein essor, où le discours convenu est toujours celui d'un avenir radieux et fortement sécurisé sans aucun nuage. L'illusion cryptographique, entretenue par ceux qui y trouvent un intérêt financier, consiste à prétendre que l'ajout d'une couche de cryptographie sur nos ordinateurs suffira à nous préserver de tous les maux décrits ci-dessus.

Malheureusement, la sécurité d'un système doit s'envisager globalement, et ne peut donc se réduire à la cryptographie. Pour sécuriser un ordinateur connecté à un réseau, il faut vérifier la qualité des primitives cryptographiques, mais aussi analyser les protocoles d'utilisation (quelles informations sont échangées et sécurisées, et dans quels buts ?), puis s'intéresser à l'architecture de l'ordinateur (les données numériques à sécuriser sont-elles accessibles directement et en clair quelque part ?), à la structure du réseau, aux interactions avec les autres ordinateurs, à l'environnement physique des machines, et enfin à l'utilisateur, qui peut être complice ou manipulé...

La sécurité des systèmes numériques apparaît ainsi comme un véritable oignon aux multiples couches. Chaque couche s'analyse et se sécurise de façons différentes, et il suffit d'une seule faille dans une seule couche pour compromettre la sécurité de l'ensemble. La cryptographie est ainsi replacée à sa juste valeur : une solution de sécurité pour la couche la plus profonde, qui ne règle en rien les problèmes des couches supérieures...

Tout ceci reste très théorique, et le fonctionnement réel des systèmes numériques prétendus sécurisés n'a fait l'objet que de peu d'études jusqu'en 1995. Ross Anderson publia cette année là un article intitulé « Pourquoi les systèmes cryptograpiques échouent » qui fut un coup de tonnerre dans le ciel bleu des cryptographes. Après avoir étudié près d'une centaine de cas de pénétration de systèmes numériques prétendus sécurisés (essentiellement bancaires), Anderson démontra que toutes les failles qui avaient été exploitées se trouvaient dans les couches supérieures de l'oignon, et pas dans la couche cryptographique.

Anderson a distingué deux grandes catégories de causes ayant permis les pénétrations : les erreurs d'implémentation et les décisions de gestion ineptes. Dans le premier cas, des failles béantes persistaient dans les couches intérieures de l'oignon. Anderson cite le cas d'un fabricant de distributeurs à billets dont les couches cryptographiques étaient parfaites, mais qui, pour les besoins des tests du mécanisme de distribution des billets, avait programmé l'ordinateur de façon telle qu'un code de 10 chiffres tapé sur le clavier avait pour résultat la distribution automatique des dix premiers billets de la pile. Tant que cette manipulation fut réservée aux opérateurs de l'usine chargés des tests, il n'y eut pas de problème ; mais une série de distributeurs fut livrée aux banques avec cette fonctionnalité toujours en place, et le code mentionné explicitement dans le manuel d'utilisation. Le chiffre des pertes survenues en quelques jours ne fut jamais divulgué.

Anderson matérialisait ainsi la réalité de l'oignon ; mais sa contribution la plus importante réside dans l'analyse de la deuxième catégorie de causes (les décisions de gestion) et dans la prise de conscience publique qu'un système sécurisé devait vivre avec ses utilisateurs, loin du laboratoire où on l'avait conçu. L'utilisateur, évoluant dans une structure sociale et hiérarchique donnée, prenait ainsi toute l'importance qui est la sienne dans l'analyse de la sécurité d'un système.

Au fil des années, à la suite d'Anderson, on se rendit compte par exemple que :

- une politique de sécurité trop stricte sera contournée par ses utilisateurs ;

- les spécialistes de la sécurité d'une banque préféreront se taire plutôt que d'attirer l'attention sur les conséquences néfastes d'une décision prise très haut dans leur échelle hiérarchique ;

- il est facile de manipuler au téléphone un employé bancaire pour obtenir communication d'informations sensibles disponibles dans le système sécurisé de la banque.

Le facteur humain devient alors central dans la mise en place de systèmes sécurisés, dans leur cycle de vie et d'utilisation. La publication en 1998 par une doctorante de l'université américaine Carnegie-Mellon (Pittsburgh, Pennsylvanie) d'un article intitulé Why Johnny can't encrypt a orienté les recherches modernes dans une nouvelle direction : Alma Whitten a demandé à une série d'étudiants habitués à manipuler un ordinateur d'utiliser un logiciel commun de cryptographie pour envoyer un courrier électronique sécurisé à un correspondant fictif. Bien qu'ayant à leur disposition un ordinateur où tous les logiciels étaient parfaitement installés, ainsi que les manuels du logiciel de cryptographie, aucun parmi la vingtaine de cobayes n'a réussi à envoyer le message crypté au bout d'une heure et demie d'essais. Pire encore, plus de la moitié des étudiants ont envoyé le message en clair sans s'en rendre compte.

Dans la continuation des travaux de Whitten et à partir de ma propre expérience des systèmes sécurisés, j'ai été amené à formaliser un principe empirique conçu sur le modèle du principe de Heisenberg (qui stipule qu'on ne peut connaître précisément à la fois la position et la vitesse d'une particule élémentaire).

Principe de Whitten

Pour un système numérique, le produit du niveau de sécurité par la facilité d'utilisation ne peut dépasser une constante fixe. En d'autres termes, il y a un moment où l'on ne peut augmenter la sécurité d'un système sans diminuer sa facilité d'utilisation. Une troisième formulation, plus lapidaire : un système facile à utiliser ne peut pas être sûr, et un système sûr est difficile à utiliser.

Reprenons : la sécurité d'un système installé peut être anéantie par une seule décision de gestion inepte ; le facteur humain garantit une instabilité importante ; les systèmes sûrs sont quasi-inutilisables par le grand public.

« Et pourtant, elle tourne ! » aurait dit Galilée à l'annonce du verdict de son procès ; et pourtant, chacun d'entre nous utilise chaque jour des systèmes numériques prétendus sécurisés : cartes bancaires, téléphones portables, distributeurs à billets, etc. Pour les spécialistes du sujet, aucun de ces systèmes destinés au grand public n'a un niveau de sécurité adéquat ; et pourtant, nous les utilisons !

Deux logiques s'affrontent : pour les industriels, le manque de sécurité de leurs systèmes est géré comme un risque : si le coût de la fraude à la carte bancaire est significativement inférieur au montant des commissions encaissées par les banques, pourquoi celles-ci dépenseraient-elles de l'argent pour améliorer la sécurité du système ?

Pour les citoyens, il est impossible, sauf à une minorité, d'avoir un avis objectif sur le niveau de sécurité d'un système. Tout se joue sur l'image perçue et sur la confiance placée, souvent aveuglément dans le système.

Les enjeux financiers autour de ces systèmes sont énormes, et conduisent souvent les industriels à employer tous les moyens à leur disposition pour contrôler l'image perçue par le public, et par là même préserver leurs bénéfices, parfois au détriment de quelques individus, de plus en plus aux dépens de la société toute entière. Nulle part ceci n'est plus visible aujourd'hui que dans le domaine de la propriété intellectuelle.

Le grand massacre des droits de propriété intellectuelle

À partir du moment où un texte, un enregistrement, une photo ou un film sont numérisés, la quasi-totalité des droits de propriété intellectuelle qui leur sont rattachés meurent. En effet, comme nous l'avons mentionné plus haut, la copie et la diffusion des données numériques sont incontrôlables et anonymes.

Seul le droit d'être reconnu comme l'auteur persiste dans le monde numérique : la qualité d'auteur se prouve toujours par l'antériorité matérialisée par une copie physique (déposée chez un notaire ou dans une société d'auteurs). Par contre, la possibilité pour les détenteurs des droits (qui sont souvent distincts des auteurs) de gagner de l'argent en contrôlant la distribution ou la reproduction des Suvres disparaît. La révolution numérique induit sur ce point une rupture complète avec le droit existant.

En fait, toute la construction juridique et sociale autour de la propriété intellectuelle n'existe que parce que jusqu'à présent, la copie et la diffusion étaient chères et lourdes à mettre en Suvre. Il est rentable de poursuivre un contrefacteur qui produit et distribue des copies « pirates » d'un CD parce que le résultat de l'enquête sera la saisie de l'usine de duplication, et le démantèlement du réseau de distribution. La perte prévisible pour le contrefacteur est dissuasive, et l'enquête se conclut par une diminution notable du nombre de copies « pirates » en circulation, au bénéfice du détenteur des droits.

Tant que la liberté de la presse n'existait que pour ceux qui possédaient une imprimerie, la notion même de propriété intellectuelle pouvait perdurer. À partir du moment où chacun peut, pour quelques dizaines de francs, diffuser, copier, échanger, modifier tous les contenus numériques disponibles, les lois deviennent obsolètes : quand tout ordinateur peut dupliquer pour un coût quasi-nul, quand l'Internet sert de réseau de distribution, quand personne ne gagne d'argent avec les copies réalisées, quand il est extrêmement difficile d'identifier avec certitude chacun des nombreux individus impliqués, que peut-on faire ?

Face à ce constat, de nombreux Cassandres annoncent la mort de l'art et de la culture, puisqu'on ne peut plus rémunérer les artistes. C'est oublier un peu vite que la propriété intellectuelle est une création récente, et faire bon marché de tous les artistes antérieurs au dix-huitième siècle dont les Suvres, pourtant produites en des temps où la propriété intellectuelle n'existait pas, remplissent les musées et les bibliothèques.

On pourrait aussi rappeler que le système actuel ne rémunère pas vraiment les créateurs, mais plutôt les employés et surtout les patrons des cartels de la distribution. Peu d'écrivains vivent aujourd'hui de leur plume en France, mais rares sont les éditeurs affamés. Le cas des chanteurs à succès est encore plus instructif : comme l'a récemment rappelé la star américaine Courtney Love, l'essentiel des profits réalisés sur la vente des disques revient aux maisons de disques et pas aux artistes, qui ne sont même plus en général propriétaires de leurs Suvres.

Le financement de la création artistique se fera toujours, mais par des méthodes nouvelles ou oubliées : le sponsorat et le mécénat vont refleurir ; le pourboire réhabilitera la représentation (une expérience en direct qui ne peut être numérisée !) ; quelques écrivains deviendront feuilletonistes, genre qui a quand même donné Balzac ; on peut même envisager des méthodes inédites de financement, qu'expérimentent dès aujourd'hui des artistes comme les chanteurs Courtney Love, Prince, David Bowie, ou des écrivains comme Stephen King.

On pourrait même considérer que la décommercialisation prochaine de l'art n'est pas une mauvaise chose, et qu'il n'est pas forcément nécessaire de rémunérer tous les créateurs pour les inciter à créer... Mais ceci ne fait certainement pas les affaires de tous ceux qui gagnent de l'argent avec des droits de propriété intellectuelle.

Aux États-Unis, les « empereurs du contenu » (sociétés de distribution de disques, de livres, de films, détentrices de droits de propriété intellectuelle) constituent un lobby organisé, riche et puissant. Le Congrès américain, complètement dépendant des dons finançant les campagnes électorales, a ainsi été amené au cours des dernières années, à étendre l'ensemble des droits de propriété intellectuelle, à la fois sur ce qu'ils couvrent et sur leur durée de vie. Le résultat est un appauvrissement marqué du domaine public, et une perte nette pour la société dans son ensemble.

Pire encore, des lois pénales ont été adoptées, qui se traduisent par des pouvoirs accrus aux forces de polices, des peines allongées, et une réduction importante de droits traditionnels proches des libertés fondamentales (droit de citer, droit de critiquer, droit d'archiver, droit de prêter). Le renforcement de la propriété intellectuelle conduit à plus de répression, plus de contrôle des citoyens.

Droit et stabilité sociale : les vrais enjeux de la révolution

Les évolutions brutales des techniques peuvent sembler effrayantes ; il serait cependant naïf et illusoire de croire qu'elles détermineront à elles seules la physionomie de nos sociétés futures. Les décisions législatives façonnent notre monde ; le rôle d'arbitrage entre diverses parties de la société revient à l'État et aux organes législatifs, qui doivent définir l'intérêt général.

Il est quasiment inconcevable qu'un système numérique déployé à grande échelle soit parfaitement exempt de dysfonctionnement et parfaitement inattaquable. Quand ces problèmes se présenteront, la question majeure restera : qui, des industriels ou des citoyens utilisateurs, portera le chapeau ? L'attribution des responsabilités financières et pénales pour chacun de ces systèmes, existants ou futurs, est un enjeu majeur dont les résolutions auront une énorme influence sur la structure même de nos sociétés.

Deux exemples largement répandus illustrent la question de la responsabilité financière : dans le cas de la carte bancaire, l'État a tranché par la loi : l'essentiel du coût de la fraude est supporté par les banques exploitantes. Les conséquences des faiblesses du système sont donc assumées par ceux qui peuvent avoir une action correctrice sur celui-ci. Inversement, pour les téléphones portables (ou pour l'accès à l'Internet par le câble), les exploitants industriels ont réussi à faire porter le chapeau financier aux utilisateurs, en rédigeant des contrats de service léonins et abusifs. (On ne peut que constater l'insupportable lenteur des services de l'État chargés de protéger les consommateurs à s'attaquer à ces pratiques.)

Au-delà de la question importante de savoir qui paiera les pots cassés, reste un sujet peu abordé en France jusqu'à présent : qui ira en prison ? Compte tenu de ce qui a été exposé ci-dessus quant au manque de fiabilité intrinsèque de tout ce qui est numérique, on pourrait penser que des données numériques n'auraient aucun caractère de preuve en matière pénale. En France, peu de juges ou d'avocats sont au fait de ces notions (les juristes sont le plus souvent issus des filières littéraires et non scientifiques) ; peu d'experts sont appelés à démonter devant les tribunaux les faiblesses ontologiques des systèmes numériques, et la jurisprudence s'oriente assez mal pour l'instant.

Mais il suffit de quelques procès importants pour changer une jurisprudence. La loi se change moins facilement, et les gouvernants de tous les pays occidentaux rivalisent de rapidité pour promulguer des lois nouvelles traitant du monde numérique. À de rares exceptions près, ces lois sont rédigées par des gens trop âgés, méconnaissant les problèmes, influencés par les lobbies industriels, pressés par des impératifs démagogiques. Souvent, ces lois font fi des réalités les plus évidentes et sont quasiment inapplicables. Parfois, leur application résulte en une très forte diminution des libertés publiques auxquelles nous sommes habitués.

L'incompétence des administrations en matière numérique est effrayante (à de trop rares exceptions près, l'une d'elle étant le dédicataire de ce texte.). Comme l'a écrit John Katz, « tout ceci laisse le citoyen lambda, l'utilisateur principal de la technologie, dans une position insupportable, coincé entre une élite technique qui le dépasse rapidement et une structure de pouvoir ignorante qui répond sans comprendre et promulgue des lois idiotes. » Comme la révolution numérique prend de plus en plus de place dans nos vies, si nos gouvernements persistent à édicter des lois ineptes, l'État et ses services se déconsidèreront complètement. C'est, à terme, la légitimité des structures de la démocratie qui se joue sur ces décisions.

La première crise de ce type est déjà sur nous : comme nous l'avons mentionné plus haut, de nombreuses lois récentes étendent et renforcent la propriété intellectuelle. Ces nouvelles lois instaurent un contrôle accru sur la copie, c'est l'essence même du copyright. Mais dans le monde numérique, la lecture, c'est la copie ! (Pour lire un document disponible sur l'Internet, il faut le répliquer d'ordinateur à ordinateur. Une fois une copie du document parvenue à l'ordinateur du lecteur, plusieurs copies internes sont encore nécessaires avant l'affichage final sur l'écran ou l'impression.) Permettre à certains de contrôler la copie, c'est, très vite, leur donner un droit de regard sur ce que nous serons autorisés à lire.

C'est par le droit à la lecture qu'il est possible de former des citoyens responsables et éclairés. C'est peut-être par un contrôle abusif de la copie que nous commencerons à abandonner ce droit fondamental. Seule la prise de conscience par les citoyens de ce qui se joue sous nos yeux contrera les effets conjugués de la peur, de l'incompétence et des intérêts financiers et politiques, et nous permettra d'éviter un monde futur à mi chemin entre Kafka et Staline.

Source, Biographie, Liens - Canal-U TV - UTLS : Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...