illustration

Réseau d'Activités à Distance

rad2000.free.fr

Sommaire


Téléphone, fax et ordinateur mobiles.

Réseaux et services multimédias.

Informatique répartie et distribuée.

Applications Client/Serveur.

Travail en groupe (Groupware et Workflow).

Quand on parle de Nouvelles Technologies de l'Information et de la Communication, de quoi parle-t-on?

Le vocable “Nouvelles Technologies de la Communication et de l'Information” et le sigle NTCI, évoquent l'accélération des innovations due à la convergence de technologies, de réseaux et de services antérieurement séparés.

Il concerne le téléphone, la radio, la télévision, l'informatique, le disque audio, la cassette vidéo, etc. Le codage analogique du signal est remplacé par un codage numérique, issu de l'informatique. On programme les sons et les images comme on programmait les chiffres et les lettres. C'est la “révolution numérique”.

Tout cela donne le Multimédia. Le multimédia local est représenté par le Cédérom. Le Multimédia en ligne, via les télécommunications, est focalisé par Internet, le réseau des réseaux. Il est le prototype de l'accès aux informations distantes.

1. Téléphone, fax et ordinateur mobiles

Les cadres et les commerciaux sont les premiers utilisateurs du téléphone mobile. Leur mode de vie se transforme rapidement et diffuse dans d'autres catégories professionnelles. La mobilité connectée se développe selon sa propre logique.

Le voyageur est souvent loin de son entreprise et de sa famille. Pour rester au courant des nouvelles, il doit se connecter. Depuis des années, le voyageur professionnel utilisait le téléphone de ses clients, des lieux publics ou de ses points de repos. Il improvisait un bureau partout où il trouvait une table vide et un téléphone. Plus le voyage était long, plus il fallait transporter et mettre à jour de documents. Les dossiers trop volumineux réduisaient la mobilité. La remise au propre exigeait des retours périodiques au camp de base.

Le voyageur passe beaucoup de temps dans les transports. L'ordinateur portable, malgré une autonomie réduite, permet de transformer le temps de transport en temps de travail. Les dossiers sont remplacés par des fichiers électroniques toujours présentables. La connexion de l'ordinateur portable au téléphone mobile crée un bureau virtuel. Mobile et autonome, il réduit le parasitisme du nomade.

L'ordinateur de poche, qui cumule les fonctions de calepin, d'agenda, de carnet d'adresses, de tableur, de traitement de texte, de dictionnaire, de comptable, d'alarme, d'enregistreur et de pense-bête, devient un véritable assistant personnel. Plus besoin d'appeler à l'aide une lointaine secrétaire. En panne dans un aéroport, on retrouve les adresses utiles pour inventer une solution d'urgence. Disponible à la seconde, avec une autonomie de 50 heures, en deux piles bâton de 1, 5 volt, l'assistant personnel transforme une table de café ou un siège de métro en bureau personnel. L'autonomie du matériel augmente celle du voyageur. Le camp de base est de moins en moins nécessaire.

Les ordinateurs de poche les plus récents se connectent au téléphone mobile. De presque n'importe où, le voyageur peut émettre et recevoir des fax, télécharger des fichiers, consulter le minitel, ouvrir sa boîte-à-lettre électronique et accéder à internet. Bientôt, le téléphone mobile et l'assistant personnel ne seront plus qu'un seul objet, libérant une poche de la veste ou l'étui de la ceinture.

Ce développement est cumulatif. Les outils nomades augmentent l'autonomie du voyageur. L'allongement des voyages et leur plus grande fréquence rendent inutile le camp de base. Le voyageur professionnel est partout à son bureau. L'entreprise en arrive à ne plus lui en fournir. Son domicile personnel devient son seul camp de base. Le mode de vie professionnel devient nomade.

2. Réseaux et services multimédias.

La miracle de la connectivité suppose une infrastructure. Le téléphone sans cordon est une nouvelle invention de la téléphonie sans fil (TSF). Et c'est bien la technologie de la transmission radio qui permet le téléphone mobile. Le réseau téléphonique et le réseau radio se complètent. Mieux, ils s'interpénètrent.

Produit de la numérisation des informations, le système GSM (Global System for Mobile communications) est un système de radiotélécommunications associant un sous-système radio à un réseau filaire.

Le téléphone cellulaire, de voiture en 8 Watt, ou de ceinture en 2 Watt, découpe le territoire en cellules géographiques de faible dimension. Dans chaque cellule, le téléphone mobile communique avec une station radio de base. Les stations sont reliées entre elles par le réseau téléphonique filaire.

Pourquoi couper le territoire en petites cellules quand les ondes radio font si facilement le tour du globe? La faible taille des cellules exige une moindre puissance d'émission, permet la miniaturisation et l'autonomie électrique. Mais surtout elle évite la saturation du spectre des fréquences. Dans chaque cellule, la station radio n'utilise qu'une partie des fréquences attribuées au réseau. Les cellules voisines utilisent une autre plage de fréquence. On évite ainsi les interférences. Au delà d'une certaine distance, les cellules peuvent réutiliser les mêmes fréquences. Le problème ressemble à celui du nombre de couleurs qu'il faut pour colorier les départements français, sans que deux départements contigus aient la même couleur.

Entre les stations radios des cellules, on utilise des fibres optiques. Elles acheminent beaucoup plus d'information que les paires téléphoniques en cuivre.

Deux réseaux (téléphone et radio) s'interpénètrent. Ils rendent plusieurs services: transport de la voix, transport des données, transport de textes, transport d'images. Ces différents services sont rendus à l'utilisateur grâce à son terminal multimédia. Il est capable de transformer les 0 et les 1 en texte, en voix, en musique, en images, en programmes ou en données informatiques.

L'infrastructure combine les réseaux (fil de cuivre, fibres optiques, ondes hertziennes). Le terminal jongle avec les codages et les protocoles. Les opérateurs échangent les services pour éviter la redondance des équipements. On passe du cloisonnement au partenariat, sans abolir la concurrence.

3. Informatique répartie et distribuée.

Sous la Présidence de Valéry Giscard d'Estaing, le rapport Nora-Minc sur l'informatisation de la société française prévoyait le raccordement de tous les bureaux et de tous les foyers à de vastes ordinateurs centraux. C'est ce que France-Télécom a partiellement réalisé avec l'annuaire électronique et le minitel si lent et si peu confortable. Mais partout ailleurs, c'est le contraire qui s'est produit.

L'encre du rapport Nora-Minc n'était pas sèche qu'Apple, Commodore et Tandy, suivis par Sinclair, Hewlett-Packard et IBM vendaient les premiers ordinateurs personnels. La vague du micro était née. Elle allait déferler avec Compaq et Toshiba. Elle a fait la fortune de Microsoft.

Pendant longtemps, les entreprises ont connu une grosse informatique officielle, centralisée, bureaucratique et une micro informatique clandestine puis officieuse, irresponsable et spontanéiste. Il est venu un moment où les programmes et les données dispersés sur les ordinateurs personnels ont dépassé, en volume ou en coût, leurs équivalents sur les ordinateurs centraux. Ces deux informatiques, fantasmatiques dans leur prétention à l'unicité, sont en passe de disparaître. Elles viennent se ranger dans une nouvelle architecture, ni centralisée, ni décentralisée. C'est le réseau qui les a renvoyées dos-à-dos.

Il est trop dangereux de mettre toutes les informations de l'entreprise sur un ordinateur central, même protégé par un blockhaus. En cas d'incendie (Crédit Lyonnais) on est content d'avoir une autre source de mémoire, de diffusion et de traitement.

L'entreprise ne peut pas suivre toutes les améliorations technologiques. Un ordinateur central est toujours trop gros ou trop petit. Contrairement à ce que laissent croire les économistes marginalistes, on n'augmente pas la taille d'un ordinateur octet par octet. C'est pourquoi de nombreuses entreprises ont fini par confier leur informatique centrale (pourtant secrète, jalouse et stratégique) à des sociétés extérieures. C'est le “Facility Management”. Il est plus confortable et flexible de louer de l'espace mémoire, du temps de calcul et des compétences pointues à une société de services. Du fait du nombre de ses clients, elle peut acheter et amortir les plus puissants ordinateurs qu'aucun d'eux ne pourrait s'offrir.

Les ordinateurs personnels sont maintenant connectés, en réseau, à des ordinateurs qui ne sont plus toujours au coeur de l'entreprise. Peu à peu, ils deviennent une adresse électronique dont la localisation géographique importe peu, pourvue qu'elle soit discrète. Selon le service attendu, on se connecte à telle adresse ou à telle autre.

4. Applications Client/Serveur.

La manière d'écrire les programmes et de concevoir les applications s'est adaptée à cette nouvelle distribution de la puissance informatique. Exit le modèle Maître / Esclave où le terminal passif est un clavier et un écran sans autonomie de traitement, tandis que l'ordinateur Host effectue tous les calculs et tous les accès disque. L'esclave est devenu un client. Le maître est devenu un serveur.

Puisque les ordinateurs personnels ont atteint une grande capacité de traitement, on leur confie une partie du travail. Mais puisque les informations n'appartiennent pas seulement à l'utilisateur, on les range sur des serveurs dotés de grandes capacités de stockage et de communication.

Sur un réseau local, de nombreux postes “clients” communiquent avec un ou plusieurs “serveurs”. Des machines sont optimisées pour le calcul, pour le stockage des données, pour la communication externe ou pour la gestion des imprimantes communes. L'utilisateur ne dispose pas seulement de la puissance de son ordinateur de bureau, il dispose d'une partie de la puissance du réseau. Bien sur, cela se ressent quand des applications prioritaires “mettent à genou” le serveur de traitement. Ce peut être le moment de fumer une cigarette, boire un café ou “tailler une bavette” avec son voisin.

Sur un réseau distant, le nombre de serveurs peut se multiplier à l'infini.

On fait de l'intranet quand tous les postes clients et tous les postes serveurs appartiennent à la même entreprise. Même si cela ne manifeste pas une très grande ouverture vers le monde extérieur, c'est déjà une révolution dans les comportements. Cela implique que chaque service se sente responsable d'une communication et diffusion de l'information à destination de toute personne, quel que soit sa fonction et son statut hiérarchique. L'intranet, tout récent, aura pour premier effet d'accroître le niveau d'information commune dans l'entreprise. Il finira peut-être par réduire ou abattre les féodalités.

On fait de l'internet quand les postes clients et les postes serveurs appartiennent à n'importe quelle entreprise, personne ou organisation dans le monde. Vous faites vos commandes à La Redoute et aux Trois Suisses, pendant que votre voisin, connecté au site serveur de Netscape, charge la version 3.0 du logiciel de butinage Navigator. Dans un autre bureau, un collègue charge, depuis le site Apple, un logiciel de compression d'archives. Le directeur financier suit les cours de la Bourse. Le spécialiste du Télétravail participe à un forum électronique organisé par la Communauté Européenne.

Dans tous les cas, les postes clients se connectent au réseau téléphonique commuté (RTC) par une ligne téléphonique ordinaire. Il suffit d'interposer, entre l'ordinateur et la prise téléphonique, un modulateur-démodulateur ou modem qui transforme les 0 et les 1 en “musique” et inversement. Quand la connexion est terminée, le téléphone est de nouveau disponible pour converser ou émettre des fax. Avec une ligne RNIS on peut même faire les deux choses à la fois.

Les postes serveurs, quand à eux, sont beaucoup plus sollicités. Pour être toujours accessibles par plusieurs clients, ils sont connectés au réseau par des lignes spécialisées, à haut débit. Une batterie de modems permet de recevoir plusieurs communications simultanément. Il faut des stations de travail spécialisées, souvent reliées en réseau local. Un frontal connecté aux modems, reçoit les appels et les dirige vers les serveurs d'information ou de calcul disponibles. Des techniciens aguerris veillent sur cet ensemble matériel et logiciel. Ils garantissent sa permanente opérationnalité.

Retenons que le monde des clients est progressivement ouvert à tous tandis que le monde des serveurs exige des compétences très spécialisées et les plus vastes économies d'échelles. Mais il suffit d'un poste client pour alimenter en informations l'espace disque d'un serveur. Les opérateurs devront avoir une couverture mondiale, grâce à quoi les utilisateurs seront de plus en plus mobiles, flexibles et nomades.

5. Travail en groupe (Groupware et Workflow).

La connexion en réseau facilite grandement le travail en groupe. Elle offre les avantages de la communication asynchrone. La communication asynchrone est celle que permettent le courrier postal, le répondeur téléphonique, le fax et le courrier électronique. La communication synchrone requiert la présence simultanée des participants. La communication asynchrone, entre deux postes clients, est relayée par un serveur. La communication est coupée en deux phases. Chacun fait la moitié du chemin, quand il est disponible.

Il n'y a pas si longtemps, le travail en groupe exigeait des salles de travail spécialement équipées. Tables modulaires, géométrie variable, tableau blanc, rétroprojecteur. Le travail en groupe impliquait la présence simultanée et permanente de tous les membres. Il était difficile de maintenir l'intérêt et la participation de tous. L'émission de parole était simultanée à sa réception. Tout retard ou absence obligeait à des redites désagréables. La cohabitation, pas toujours confortable, même dans les hôtels de luxe, ne pouvait durer trop longtemps. Chacun se faisait violence pour abandonner son rythme spontané et adopter un rythme collectif très arbitraire.

La vidéo-conférence reproduit ce genre de réunions, mais elle économise les voyages en train ou en avion. Dans un studio aménagé ou devant son ordinateur, chacun participe à la réunion, sous l'animation électronique de l'un d'entre eux. Cela oblige à clarifier son discours. Plus question de multiplier les apartés. Ce que l'on ne dit pas à la collectivité n'est dit à personne. Le contenu objectif est favorisé. Ce qui serait dommage au café, est plus efficace au travail.

Partout où le travail en groupe s'effectue par la coordination de travaux individuels aboutissant à des documents synthétiques communs, le groupware est une solution. Chacun travaille, à son rythme, sur son logiciel familier, abattant sa propre pile de travaux. Quand un document est terminé, il est rangé sur le serveur. Une zone de stockage est accessible par tous. Chacun vient y puiser de quoi alimenter sa pile de travail.

Un directeur rédige un mémo à destination de sa secrétaire. Celle-ci organise les rencontres. Le directeur retrouve: les rendez-vous dans son agenda électronique, l'ordre du jour dans son traitement de texte, les documents de présentation dans sa PAO favorite, le budget prévisionnel dans son tableur. Le représentant rédige ses rapports de visites et ses commandes. Le chef des ventes les consultera dès qu'ils seront disponibles. Tous ces documents communs sont complétés par un système de messagerie. Sans crier, sans faire la queue devant la porte du directeur, sans laisser de post-it sur des bureaux toujours vides, chacun envoi des messages. Ils seront lus à l'ouverture de la boîte-à-lettre.

Replication. Il n'est pas nécessaire de rester connecté au réseau. On peut travailler, en local, sur son ordinateur personnel. Surtout pour le nomade qui travaille dans le train, avec son portable. Dès que l'on se connecte au serveur du réseau de groupware, celui-ci note l'identification du “client” et compare la date et heure courantes à celles de la dernière connexion. Si des documents ont été modifiés dans la base commune, ils sont déversés sur le disque du poste client. Les messages sont échangés dans les deux sens, entre toutes les boites-à-lettres. On peut alors se déconnecter et traiter tranquillement toutes les affaires courantes. Le nomade participe tout autant que les sédentaires au travail de groupe. Quand on lui adresse des documents, il importe simplement de connaître le rythme et les heures de ses réplications. Est-il à Tokyo ou à Los Angeles?

Dans les services traitant des documents standardisés: comptabilité, paye, commercial, sécurité sociale, le groupware, relativement souple et informel, fait place au workflow. Chaque document est calibré par des modèles électroniques. Le document change de statut au fil des taches, des vérifications et des signatures électroniques.

Les documents commerciaux alimentent les documents de production. Ceux-ci gèrent la Production Assistée par Ordinateur. La GPAO rythme la course des camions qui livrent “juste à temps”. On passe du bureau à l'usine. On y retrouve des claviers et des écrans pour gérer les flux de matière et de produits. Host et PC, ennemis d'hier, se fondent dans les réseaux omniprésents.

6. Calcul, Communication, Capitalisation, Connaissance.

Depuis son invention, l'ordinateur a progressivement élargi le champ de ses applications.

1950. A l'origine il était surtout une machine à calculer. Le calcul scientifique a fait les beaux jours de la recherche opérationnelle. Il fût un temps où les consultants en gestion tendaient à confondre la direction des entreprises avec le calcul de la solution dans un problème de programmation linéaire. Pourvu qu'on leur donne un nombre suffisant d'équations, ils étaient sûrs de trouver la meilleure solution. C'était l'époque des logiciels de comptabilité, de finance, de paye et de planification de la production.

1980. Avec la micro informatique, l'ordinateur personnel est devenu un outil de communication. Comme avec Gutenberg, chacun s'est mis à produire ses propres documents imprimés. Ce fut l'époque de la publication assistée par ordinateur. Elle se prolonge avec la messagerie électronique et la vidéo-conférence.

1990. Pendant ce temps, les services informatiques centraux se sont efforcés de mettre un peu d'ordre dans leurs applications. Les bases de données remplacent le foisonnement anarchique des fichiers. On les considère peu à peu comme la mémoire officielle de l'entreprise. Avec les premiers départs à la retraite à la fois massifs et anticipés, on prend conscience de l'intérêt de garder la trace des projets anciens. C'est la vague des systèmes experts. L'entreprise cherche à capitaliser son savoir-faire.

1995. Mais les ordinateurs ne stockent que des informations. Plus ils nous en délivrent plus nous ressentons le besoin de classer, de ranger et surtout de comprendre. Il nous faut la capacité de trier, de critiquer et d'interpréter. Ce que l'ordinateur ne nous donnera jamais, c'est la connaissance. Toutes ces informations doivent pénétrer dans notre cerveau. Elles doivent revenir en temps voulu. Plus les réseaux de serveurs traiteront et feront circuler l'information, plus il nous incombera de les transformer en connaissances utiles, de les utiliser avec pertinence, de prendre des décisions cohérentes. Les outils de simulation peuvent accentuer notre capacité d'apprentissage, multiplier notre expérience. C'est ainsi que procèdent les simulateurs de vol ou les jeux d'entreprises.

7. Ordinateur Central, Personnel, Infocentre, Réseau local, Réseau à distance.

Nous venons de résumer l'élargissement des applications de l'ordinateur. Ce changement de terrain s'est accompagné d'une évolution des architectures matérielles et logicielles. Un changement des mentalités a souvent précédé les évolutions majeures. C'est important pour évaluer les chances de développement du territoire.

La première informatique était centralisée et coûteuse, tournée vers le secret et la puissance. Après tout, elle est fille de la guerre froide.

La mini-informatique fut longue à sortir des laboratoires scientifiques. Il a fallu la grève des programmeurs du Crédit Lyonnais pour accélérer le passage des ordinateurs centraux aux ordinateurs départementaux. Qui sait si l'incendie du même Crédit Lyonnais favorisera les réseaux d'ordinateurs en miroir mutuel?

La micro-informatique, inventée par des individualités, fut longtemps freinée par les professionnels et les institutions.

La technique de l'infocentre a été une première tentative de conciliation des ordinateurs centraux et des ordinateurs personnels, sous le contrôle des services informatiques.

Pourtant, ce sont les réseaux locaux qui ont réussi à connecter les ordinateurs personnels. Ils furent le moyen de partager des matériels coûteux (imprimante laser, imprimante rapide, scanner, accès aux réseaux à distance). Ils furent aussi un moyen de faciliter la mise-à-jour et de réduire le piratage des logiciels. Les utilisateurs semblaient se lasser de leur propre course à la dernière version.

Force est de constater que les réseaux à distance, internes aux entreprises, se sont développés moins rapidement que le réseau externe par excellence, l'internet.

Il y a dans ce phénomène, imprévu, une parenté avec celui de l'ordinateur individuel. Dans les deux cas, une certaine forme de militantisme ou, plus exactement, d'esprit pionnier. Le développement d'internet est concomitant au développement du freeware et du shareware. Un logiciel freeware est un logiciel totalement gratuit. Un logiciel shareware est un logiciel dont la disposition est gratuite, mais pour lequel le concepteur demande une participation symbolique et facultative, en échange de propositions de mise-à-jour. Ces deux phénomènes ont joué un grand rôle dans le développement de standards de fait. Quand le logiciel est gratuit, cela ne coûte pas d'utiliser le même que tout le monde. Puisqu'il n'est pas protégé, n'importe qui peut proposer des améliorations. Si celles-ci sont réelles, elles se répandent comme le feu à une traînée de poudre. A l'origine du développement d'internet il y a la notion psycho-sociologique de “réseau”.

Un certain nombre d'universités participent au projet “Internet II”. Il s'agit de relancer la création technologique dans les domaines du son et de l'image animée. On peut espérer aboutir à des standards de fait, grâce au freeware. La surenchère commerciale des grands fournisseurs de logiciels (“Ce site est optimisé pour Netscape / Microsoft”) est moins favorable à l'émergence de standards de qualité que le déboggage collectif et l'amélioration progressive des logiciels gratuits.

Suite

Quelles Informations, quelle Communication ?


Reproduction interdite
Association R.A.D. - Chez M.Houdoy - 18, rue Raoul Follereau - 42600 Montbrison - FRANCE.
* Fax: 04 77 96 03 09
Mise à jour: 16/07/2003