Voir les informations

Détails du document

Informations détaillées

Conditions générales d'utilisation :
Protégé par droit d'auteur

Consulter cette déclaration

Titre :
Québec science
Principal magazine d'information scientifique généraliste québécois. [...]

Le mensuel d'information scientifique Québec Science est publié à partir de 1970. Il est le résultat de l'acquisition par l'Université du Québec de la revue Jeune scientifique, qui était publiée par l'Acfas. C'est Jocelyne Dugas, auparavant responsable de la revue Techniques, publiée par le ministère de l'Éducation, qui préside à cette mutation.

Québec Science opte pour une formule plus journalistique que pédagogique. La revue sera un terreau de développement de la profession de journaliste scientifique. Michel Boudoux, Yannick Villedieu, Christian Coutlée, Daniel Choquette, Solange Lapierre-Czerniecki, Pierre Sormany, Michel Gauquelin, Madeleine Harbour, Fabien Gruhier, Lise Laberge, Gilles Provost, Gilles Paquette, François Picard y participent.

La revue vise à intéresser les jeunes à la science et aux carrières scientifiques en leur offrant une information scientifique à jour présentée par des articles rigoureux et approfondis. Un accent est mis sur l'attractivité visuelle; une première couverture signée par le graphiste Jean-Pierre Langlois apparaît ainsi en septembre 1973. Pierre Parent et Richard Hodgson poursuivront le travail de ce dernier. Diane Dontigny, Benoit Drolet et André Delisle se joignent à l'équipe au milieu des années 1970, alors que Jean-Pierre Rogel en dirige la rédaction à partir de l'automne 1978.

Les premières années sont celles de l'apprentissage du journalisme scientifique, de la recherche de l'équilibre entre la vulgarisation, ou plutôt la communication, et la rigueur scientifique. Les journalistes adoptent styles et perspectives propres à leur métier, ce qui leur permet de proposer une critique, souvent liée à l'écologie ou à la santé. Plus avant dans les années 1970, le magazine connaît un grand succès, dont témoignent l'augmentation de ses ventes et la résonance de ses dossiers.

Québec Science passe sous la responsabilité des Presses de l'Université du Québec en 1979. La revue est alors prospère; en 1980, le magazine est vendu à plus de 25 000 exemplaires, dont 20 000 par abonnement. Les années 1980 sont plus difficiles à cause de la crise économique. Luc Chartrand pratique le journalisme d'enquête pour la revue, dont l'équipe de rédacteurs se renouvelle. On assiste ainsi à l'arrivée de Gilles Drouin, Bernard Giansetto, Claude Forand, Louise Desautels, François Goulet et Vonik Tanneau. Québec Science produit des articles sur les sujets de l'heure : pluies acides, sida, biotechnologies.

Au tournant des années 1990, le magazine fait davantage appel à des collaborateurs externes - journalistes, professeurs et scientifiques. Le cégep de Jonquière devient l'éditeur de la revue. Il en gardera la charge jusqu'au transfert de Québec Science à Vélo Québec en 2008.

Au moment de l'arrivée, en 1994, du rédacteur en chef actuel, Raymond Lemieux, le magazine est encore en difficulté financière. Il connaîtra cependant une relance, fort de la visibilité engendrée par la publication, depuis février 1993, d'un numéro spécial sur les découvertes scientifiques de l'année au Québec. Québec Science devient le premier média québécois à se trouver sur Internet, ce qui lui offre un rayonnement international. Le magazine surfe sur cette vague, avec davantage de contenus et de grands reportages qui franchissent les frontières du Québec; il obtient un soutien accru du gouvernement québécois, ce qui lui permet de recomposer une équipe de journalistes : Catherine Dubé, Vincent Sicotte, Marie-Pierre Élie, Joël Leblanc viennent travailler pour la revue.

Québec science profite ensuite de l'engouement pour les avancées technologiques et s'attire de nombreux collaborateurs qui maintiennent le dynamisme de la revue.

Source :

LEMIEUX, Raymond, Il était une fois¿ Québec Science - Cinquante ans d'information scientifique au Québec, Québec / Montréal, MultiMondes / Québec Science, 2012, 165 p.

Éditeurs :
  • Québec :Les Presses de l'Université du Québec,1970-,
  • Montréal :Vélo Québec éditions inc.
Contenu spécifique :
Avril
Genre spécifique :
  • Revues
Fréquence :
chaque mois
Notice détaillée :
Titre porté avant ou après :
    Prédécesseur :
  • Jeune scientifique
Lien :

Calendrier

Sélectionnez une date pour naviguer d'un numéro à l'autre.

Fichiers (10)

Références

Québec science, 1974, Collections de BAnQ.

RIS ou Zotero

Enregistrer
¦'"^AZINE p UdiDdiC seiSncoT $0.75 Vqi_(|ME 12/ NUMÉRO 8/AVRIL 1974 publié par l'uni.V S DE MICROBES ’AS VOS MÉNINGES ^INSIGNIFIANCE Électricité et environnement d le/ ligne/ xi /y 7\7\ fVT^ Le besoin de transporter et distribuer l’énergie électrique a entraîné l’implantation au Québec d’un vaste réseau de lignes conductrices.D’autant plus vaste qu’il était avantageux de faire appel à nos ressources hydrauliques, souvent fort éloignées des grands centres.Autrefois, les coûts et les contraintes techniques faisaient loi quand il s’agissait de concevoir, de construire et d'entretenir ces lignes.Tous trouvaient logique, puisque cela en facilitait la construction, de faire passer les lignes le long des principales voies d’accès aux territoires qu’elles devaient traverser et, dans le cas des lignes de transport, de déboiser le plus complètement possible les corridors où elles devaient être installées (il est techniquement requis de couper au moins les arbres sous ces lignes).Maintenant, plusieurs jugent que les lignes électriques nuisent à l’esthétique de l’environnement, et l’on se préoccupe davantage de leur présence.Des critères relatifs à la conservation de la qualité du milieu sont donc venus s’ajouter à ceux de l’économie et de la technique pour présider au choix de solutions aux problèmes du transport et de la distribution de l’électricité.CONCEPTION L’Hydro-Québec accorde aujourd’hui une attention particulière à l’environnement lors de la conception de ses lignes et du choix de leur tracé.Par exemple, à l’occasion des études au sujet du transport de l’énergie de la Baie-James, l’Hydro-Québec a fait préparer un modèle d’optimisation pour l’aider à tenir compte des impacts écologiques non monétairement quantifiables, en plus des coûts socioéconomiques, des coûts de construction et des coûts d’entretien.sans compliquer leur construction, donc en majorer les coûts.Au point de vue botanique, le déboisement sélectif n’est pas toujours facile à réaliser: les éléments floristiques des strates inférieures de la végétation forestière sont adaptés à leur situation à l’ombre, et souvent ils résistent mal ou pas à la suppression des arbres.L’Hydro-Québec a maintenant appliqué la formule du déboisement sélectif à certains corridors, et exécuté, en d’autres endroits, un aménagement compensant pour le déboisement effectué.Pour rendre plus judicieuses ses méthodes d’entretien des corridors de ligne, l’Hydro-Québec utilise les techniques modernes de photographie aérienne à l’infra-rouge pour déterminer l’état de la végétation et rendre plus rationnelle l’application des produits employés pour en contenir la croissance.Un grand soin a été accordé à l’établissement de normes au sujet de ces produits et de leur emploi.NOUVEAUX HORIZONS Des études actuellement en cours de réalisation nous permettront sans doute de faire progresser nos façons de transporter et de distribuer l’électricité, entre autres celles sur l’esthétique des pylônes et celles sur l’amélioration des lignes souterraines (l’une d’elles concerne le recours à la cryogénie dans le transport à haute tension, pour solutionner le problème de la température élevée atteinte par les conducteurs).Une autre expérience que nous tentons consiste à peindre des pylônes en vert, afin qu’ils se confondent davantage avec le paysage.Diverses façons de rendre utiles les espaces sous les lignes déjà en place sont envisagées: aires de stationnement et de camping, mini-putt, exploitation de bleuetières, etc.f Il kl lu èl'hmi ihlié « lim m ù pssdeji pinte: I ITOM «est n L’usage de très hautes tensions est, quant à la conservation de l’environnement, un facteur important en ce sens qu’il faudrait plusieurs lignes à moindre tension là où une ligne à 735 kV suffit.L’Hydro-Québec est à l’avant-garde mondiale en ce domaine.Solution séduisante, l’enfouissement des lignes serait actuellement prohibitif à l’échelle de la totalité du réseau.On y a recours surtout pour la distribution dans les grandes villes, celles-ci étant plus défavorisées quant à l’environnement.Déjà là, le coût est de 2 à 10 fois supérieur à celui des lignes aériennes.Lorsqu’il est question de transport à tension élevée, l’enfouissement soulève encore de sérieux problèmes techniques.CONSTRUCTION ET ENTRETIEN Une solution intéressante consiste à ne déboiser que sélectivement les corridors de lignes.Mais ce ne va pas CONCLUSION Certaines modifications de l’environnement sont inhérentes à l’établissement d’un réseau électrique.Les unes, déjà signalées, vont à l’encontre de la qualité de l’environnement.D’autres, par exemple le fait que les corridors de lignes puissent offrir le gîte à plusieurs des animaux et plantes qu’on retrouve ordinairement à la lisière des forêts et dans les clairières, introduisent un élément de variété contribuant à la qualité du milieu.Il s’agit pour nous de rendre acceptable l’impact écologique de la présence de nos lignes en minimisant les premiers aspects et en amplifiant les seconds, tout en respectant les contraintes d’une conduite administrative saine.Nous nous y efforçons de notre mieux.Hydro-Québec ?Ê R MBDHHHHDH IW iialio» I recoiii.I»f ! ipeK* fjoiage1 aies a# iar£(:':î |[OI“ ridois* // faut lutter contre la tendance séculaire de l'homme à s'établir trop près des rivières.Les récents débordements témoignent de la nécessité de ne prévoir en bordure des rivières que des aménagements provisoires.Certes, il n'y a pas grand risque à / installer une corde à linge.Mais il n'en va pas de même si vos chaussettes sont suspendues dans votre salle de bain et se retrouvent tout à coup inondées.Ou le robinet est resté ouvert, ou votre maison est bâtie trop près de la rivière.CASE POSTALE 250 O Mise en page par ordinateur O Des profits envolés O Le loisir scientifique O Trois zéros importants COMMENTAIRE / ANDRÉ DELISLE O L'inondation se moque des bulldozers ACTUALITÉ O Des océans d'air sale O Le seuil de l'insignifiance O Emballer le papier O Mosaïque de Vénus 12 QUELQUE PART ENTRE L'HOMME ET LE MESSAGE / PIERRE SORMANY 16 TÉLÉCABLES A DOUBLE SENS 17 MESURER LE PLATITUDE DES ÉMISSIONS TÉLÉVISÉES ENVIRONNEMENT O Les mangeurs d'ormes O L'invasion des glaces O «El Nino» a mangé les anchois O Un arôme empoisonné 22 SORTIR LES VILLES DES RIVIERES/ ANDRÉ DELISLE 27 LE SUSPENSE DU PRINTEMPS 28 LA SAINTE-ANNE EN TOUT PETIT LA SCIENCE & LA SANTÉ O La mécanique génétique O Le fluor durcit les dents LA SCIENCE & LES HOMMES O La grande affaire O Le pouvoir scientifique change de mains ÉNERGIE O Une centrale à la mer O Le combustible de tout de suite O Soleils à vendre 34 CHARBON: UNE NOUVELLE JEUNESSE / FABIEN GRUHIER TECHNOLOGIE O Au coeur d'une valve O Des robots-grenouilles O Un million de chandelles en poche O Un fauteuil accélérateur de piétons 42 SANS SALAIRE ET SANS SYNDICAT / JEAN-MARC FLEURY REVUE DE PRESSE POUR EN LIRE PLUS O Dossier méthodologique de l'énergie et le désarroi post-industriel O Les plantes d'intérieur O Télé-clinique Montréal-Lyon O Le télécâble et la rétroaction du citoyen avec le gouvernement ÉCHEC ET MATHS / CLAUDE BOUCHER O Les cinq maris jaloux 4 5 7 18 29 30 32 40 47 48 50 des'Jf enafj [e$ (K1* ;ons* CKSE POSTKLE 250 MISE EN PAGE PAR ORDINATEUR Votre « Revue de presse» de la livraison de février 1974 (page 48, deuxième colonne) fait état d'un projet de mise en page par ordinateur, au «Toronto Star» et dans sept agences américaines de presse.Il conviendrait de noter que pour une fois, le Canada a devancé les États-Unis: le procédé en question fonctionne déjà au sein de l'agence coopérative de presse du Canada: la Presse Canadienne/The Canadian Press.Je n'ai plus la référence exacte, mais un article de la PC, reproduit dans « Le Soleil» en janvier 1974, expliquait le fonctionnement de ce nouveau service instauré à la fin de 1973 par la PC/CP au profit de ses quelque 110 journaux sociétaires.Le bureau de Québec de la PC ou le directeur du bureau de Montréal, monsieur William Stewart se feront un plaisir de vous renseigner davantage sur cette innovation qui mériterait bien, ma foi! un articulet dans QS.Notons en passant que la PC a été la première agence de presse au monde (peut-être l'est-elle encore?) à fournir à ses abonnés francophones un service de télécomposition en colonnes justifiées («teletype-setter») en langue française.Les Canadiens sont trop souvent d'une modestie de mauvais aloi lorsqu'il s'agit de reconnaftre leurs réalisations importantes.Votre périodique est fort intéressant.J'ai particulièrement goûté dans le numéro de février l'article de Pierre Sormany: À la recherche de nos ancêtres.Puis-je demander pourquoi on a laissé tomber la formule du «Pour en savoir plus long» qui faisait suite à plusieurs de vos articles dans le passé?Ces références étaient toujours très utiles et témoignaient de la part de votre publication d'un souci d'éducation permanente pour ses lecteurs.Marc Morin Rockwood, Ontario Notre correspondant aura sans doute confondu «composition typographique» et «mise en page».Certes, la composition typographique par ordinateur existe: ia plupart des ateliers de composition typographique au Canada s'y sont «convertis» au cours des dernières années.L'originalité de /'initiative de ia Presse Canadienne ne réside donc que dans le fait de transmettre à distance des textes déjà composés en colonnes justifiées, alignées à droite et à gauche.Mais le texte une fois composé ne constitue que l'élément de base servant à ia mise en page.Et /'innovation à laquelle nous faisions allusion consiste à programmer un ordinateur de telle façon qu'il effectue à ia fois le calibrage et ia disposition des titres, textes et photos en fonction de /'importance et de l'espace réservé à chacun et selon des standards bien définis.Un te! système permettrait aux concepteurs-graphistes de choisir après visualisation l'effet désiré pour chacune des pages.Notons en passant, que le défunt magazine «Life» avait mis au point un te! procédé à titre expérimental.En ce qui concerne «Pour en savoir plus long», nous avons laissé «tomber» temporairement la formule devant les difficultés posées par le fait que nos articles ne font pas référence à des œuvres existantes en tant que telles.Ceci parce qu'ils sont entièrement originaux et puisent très souvent dans des documents non disponibles auprès du public.Mais nos lecteurs auront sans doute remarqué que la rubrique «Pour en lire plus» présente non seulement des parutions nouvelles mais tend aussi et de plus en plus, à proposer la lecture d'ouvraoes en relation avec les sujets abordés dans le numéro.Bien sûr, nous n’avons pas encore trouvé la formule idéale, mais nous la cherchons, soyez-en perdu a dé.uma DES PROFITS ENVOLÉS Je suis un abonné depuis quelques années de la revue QUÉBEC SCIENCE et entrevois le demeurer pour longtemps si l'on continue de rédiger des articles aussi intéressants.Dans la parution de février 1974 l'article intitulé «L'ordinateur entre à la vacherie» me semble révéler des chiffres un peu erronés, ou exagérés: il y a 900 000 vaches laitières au Québec et l'augmentation des profits, si tous participaient, serait de 4 à 5 millions; ceci représente environ $5.00 par vache et non $37.60 comme on fait mention.Alors pour participer au programme officiel, un éleveur se doit d'avoir au moins 50 vaches pour couvrir la dépense initiale de $250.00.Donc je ne crois pas que le programme soit bénéfique pour tous les éleveurs.Malgré ce, la place que détient l'ordinateur dans notre société est d'une importance de plus en plus vitale, et ce que la science fiction nous révèle aujourd'hui sera réalité pour demain.Alain Benoit Verdun M.Clément Plante, du service des productions animales du ministère de l'Agriculture, admet que le chiffre de 4 à 5 millions LE MAGAZINE QUEBEC SCIENCE DIRECTEUR: Jean-Marc Gagnon REDACTEUR EN CHEF: Jean-Marc Fleury REDACTEURS: Benoft Drolet, Fabien Gruhier, Pierre Sormany, André Delisle et Michel Boudoux.CONCEPTION GRAPHIQUE: Jean-Pierre Langlois SECRETARIAT: Patricia Larouche et Françoise Ferland SEPARATION DE COULEURS: Qualith Litho Inc.IMPRESSION: l'Eclaireur Itée DISTRIBUTION: les Messageries Dynamiques Inc.COMITE D'ORIENTATION Armand Bastien, CECM O Paul Bélec, INRS-Urbanisa-tion O Louis Berlinguet, UQ O Claude Boucher, U.Sherbrooke O Maurice Brossard, UQAM O Y van Chassé, UL O Pierre Dansereau, CRE O Jacques Desnoyers, U.Sherbrooke O Guy Dufresne, Cons.Bathurst O André Fournier, min.de l'Education O Gordin Kaplan, U.Ottawa O Paul Laurent, Hydro-Québec.Le magazine QUEBEC SCIENCE est publié dix fois l'an par l'Université du Québec en collaboration avec le ministère de l'Education et le Conseil national de recherches du Canada.TOUS DROITS DE REPRODUCTION.DE TRADUC TION ET D'ADAPTATION RESERVES 1974 © Université du Québec, 2875 boulevard Laurier, Ste-Foy.Gl V 2M3 / Dépôt légal, bibliothèque nationale du Québec, premier trimestre 1974 / Imprimé au Canada / Courrier de deuxième classe, enregistrement no 1052 / PORT DE RETOUR GARANTI QUEBEC SCIENCE Case Postale 250 Sillery.Québec GIT 2R1 Téléphoné (4181 657 2426 Télex 011 3488 COMITÉ de SOUTIEN ?Bell Canada M.René Fortier Vice-président exécutif Zone de l'Est ?Banque de Montréal M.R.Muir Vice-président et secrétaire ?Institut de recherche de l'Hydro-Québec (IREQ) M.Lionel Boulet Directeur ?La Brasserie Labatt Ltée M.Maurice Legault Président ?Hoffmann-Laroche Ltée M.John S.Fralich Président • ?Imasco Ltée Les produits Imperial Tobacco Limitée COMMENTMRE L'INONDATION SE MOQUE DES BULLDOZERS de dollars d'augmentation de profit qu'il a avancé, est très très conservateur.C'est qu'il demeure convaincu qu'il n'y aura jamais plus de 15 à 20 pour cent de cultivateurs inscrits au programme électronique de contrôle laitier.Dans ce cas, l'augmentation des profits ne saurait dépasser le montant indiqué.¦ ¦¦ LE LOISIR SCIENTIFIQUE J'ai lu avec beaucoup d'intérêt l'article qui a paru dans le numéro de février de QUÉBEC SCIENCE sur l'avènement du loisir scientifique, et je crois que dans l'en-, semble il reflète bien la situation de cette forme de loisir chez les jeunes Québécois des niveaux secondaire et collégial.Il y a une phrase au début du paragraphe quatre que je trouve très mal formulée car elle tend à relancer une vieille querelle entre les Cercles des Jeunes Naturalistes d'une part et l'ancienne Association des Jeunes Scientifiques et le CJS d'autre part, alors que depuis un certain temps nous tentons de créer une atmosphère propice à une saine collaboration entre les deux groupes.C'est un peu malheureux.Le dernier paragraphe laisse sous entendre que les expos-sciences reçoivent une subvention de $8 000 du Haut Commissariat à la Jeunesse, aux Loisirs et aux Sports alors qu'en réalité ce budget vient des industries.Soyez assurés que nous apprécions beaucoup le travail que vous faites pour la vulgarisation et la pénétration des sciences dans le public.Fernand Miron Conseil de la jeunesse scientifique ERRATUM TROIS ZÉROS IMPORTANTS L'Énergie atomique du Canada tient à porter à l'attention des lecteurs de QUÉBEC SCIENCE qu'une erreur s'est glissée dans son annonce de mars dernier, en couverture du magazine: la puissance de Gentilly // ne sera pas de 600 000 000 de kilowatts, mais bien de 600 000 kilowatts 600 000 000 de kilowatts, ce serait 60 fois ta puissance prévue à la Baie James.La Commission d'Études des Problèmes Juridiques de l'Eau (CEPJE), dès 1970, a bien souligné le problème québécois des inondations.Dans le premier rapport de la Commission, on reproche à l'État de se préoccuper davantage de réparer les dommages d'inondations, que de les prévoir et d'en amenuiser les effets.Déjà, on recommande que l'État développe une politique de prévision de ces mêmes catastrophes.Quatre ans plus tard, la situation reste inchangée.Les seules mesures préventives contre les inondations restent encore la construction de barrages ou de digues, et la modification du régime d'écoulement par le détournement ou la canalisation des cours d'eau.Ces pratiques, que l'on peut qualifier de «dures» pour l'environnement, sont issues d'une préférence qui caractérise souvent l'approche des ingénieurs: la solution des bulldozers et du béton.Que sont devenues les recommandations suggérant des mesures à long terme telles que le zonage des territoires inondés ou la constitution de réserves forestières autour des nappes d'eau?Les membres de la CEPJE déclaraient que ces mesures pouvaient faire cesser sensiblement l'augmentation des dommages en empêchant que les terrains exposés servent pour des développements domiciliaires ou industriels.Bien plus, aujourd'hui on a des raisons plus pressantes de s'attarder à envisager ces solutions nouvelles, plus «douces» pour l'environnement.La prise de conscience croissante des problèmes écologiques suscités par les interventions humaines en milieu naturel, crée un climat favorable à l'implantation de ces mesures tenant compte des processus naturels et y adaptant l'activité humaine.Cependant les problèmes d'inondations se règlent encore partiellement par l'intervention de techniques cloisonnées.Le manque de coordination des différents paliers gouvernementaux ne favorise pas l'approche globale des problèmes qui concernent autant les citoyens et leurs représentants que les ingénieurs et techniciens.Cette situation est d'autant plus grave que, au cours des dernières années, on a accumulé une banque de données variées sur la question des inondations.L'ampleur du problème et l'importance de cette banque de données disponibles justifieraient la création d'un groupe interdisciplinaire de recherches sur les inondations, mandaté pour conseiller l'État en matière d'inondations.Le mandat de ce groupe serait très large du fait de son intérêt à considérer le problème dans une perspective très large.Les problèmes d'occupation des territoires riverains, d'empiètements en milieu hydrique et d'impacts d'aménagements en cours d'eau relèveraient de ce groupe.Au niveau technique, l'analyse des nombreuses possibilités de choix et l'application de solutions multiples adaptées au problème constitueraient une première étape vers une solution à caractère permanent dans le cadre de l'aménagement intégré des rivières.Aussi, un groupe de recherches sur les inondations devra chercher des solutions non conventionnelles dépassant l'aménagement en rivière, telles que le reboisement ou la rationalisation des réseaux de drainage urbains ou agricoles, de façon à améliorer les conditions d'écoulement et la répartition du débit dans le temps.Enfin, il sera utile de pousser plus loin le secteur de la prévision des crues, pour coordonner les prévisions hydrologiques de crues et les mesures d'urgence ou de protection.Au niveau social, il reviendrait à un tel groupe d'élaborer des politiques de zonage visant à définir des zones prioritaires tenant compte de la fréquence des inondations et de l'expansion urbaine, et de zones préventives évitant tout empiètement des plaines d'inondations.L'éducation du public, sur ce problème et tous ses aspects, relèverait aussi de ce groupe de recherches sur les inondations; on ouvrirait ainsi la voie à l'instauration de mesures sociales concernant la protection contre les inondations.L'approche des problèmes d'inondations dans une perspective ainsi élargie, incluant les facteurs sociaux, techniques et écologiques, permettra peut-être une lutte efficace contre la hausse des coûts relatifs aux débordements de rivière.Une conscience plus grande de ces processus naturels que sont les inondations assurera à l'homme une meilleure protection et ajoutera des possibilités d'utilisation adéquate des zones exposées.À quand cette autre victoire de la technique humaine, npn pas sur la nature, mais avec la nature?• Pour la rentrée de septembre '74 DEUX NOUVEAUTÉS EN SCIENCES • niveau secondaire (III - IV - V) • éducation permanente 1 C'EST une approche tout à fait nouvelle de l'enseignement des sciences au secondaire déjà expérimentée avec succès auprès de nombreux étudiants de cours réguliers comme de l'éducation permanente permettant à l'enseignant de simplifier et de revaloriser son rôle d’animateur L'ÉTUDIANT est intéressé par cette nouvelle approche qui permet une réussite intelligente LA SÉRIE qui commence par l étude de la physique, se poursuivra par la chimie et la biologie, qui sont en préparation.Elle couvrira ( ensemble de l'enseignement des sciences au secondaire et sera présentée sous forme de cahiers à l'intention des étudiants, accompagnés d'un guide pratique pour le professeur LES DOUZE professeurs de ( équipe SO.enseignent dans différentes écoles de la région montréalaise et travaillent en collaboration avec des enseignants de toutes les régions du Québec Apprentissage individualisé en: • PHYSIQUE • CHIMIE • BIOLOGIE par objectifs de comportement par le groupe SO , À LA DÉCOUVERTE DELA CHIMIE Permet: — un enseignement de groupe — un enseignement individualisé approche expérimentale et individualisée POUR LE MAITRE: — Tests d évaluation — Feuilles d'analyse des tests — Problèmes pratiques de laboratoire — interprétation des données Le texte est simple et «sélectif»; il vise à atteindre tous les étudiants.La mémorisation et les calculs mathématiques sont réduits au minimum.Les concepts et les principes sont introduits par des expérimentations.POUR L'ÉLÈVE: — Objectifs précis — Suggestions d'apprentissage — Tests dauto-évaluation — Activités additionnelles — Références bibliographiques N'EXIGE PAS DE MATÉRIEL NOUVEAU DOCUMENTATION DISPONIBLE Prière de m'adresser votre documentation sur: 1.Les sciences par objectifs de comportement Q 2.À la découverte de la chimie fer* Utspw ¦fflao* lire de tu «au*,» (tottàqi - te pend ¦nt into des ràan Oceanic a - merceam réiultatic ¦ :::: : ;; : - ' suspensioi : ¦ - Nom J'enseigne au niveau Adresse Localité EDITIONS DU RENOUVEAU PÉDAGOGIQUE INC.8955, Boul.Saint-Laurent, Montréal H2N IMS_ (entilt at min; qu'au a i que pl «pensi ¦leu Mpatl quilt™ dwtl'él Sade wine, m; Want de DES OCÉANS D AIR SALE Nos rivières sont de moins en moins viva-bles pour les poissons qu'elles repoussent vers la mer.De même, l'air des villes s'avère de moins en moins respirable et les oiseaux, moins bêtes que nous, l'évitent.Tôt ou tard, eux aussi chercheront sans doute à gagner les zones côtières des océans.Mais pendant que l'air des continents devient inhospitalier, qu'advient-il de celui des océans?M.W.E.Cobb de la National Oceanic and Atmospheric Administration (NOAA), rattachée au ministère du Commerce américain, vient de divulguer les résultats d'une étude comparative de l'état de pollution de diverses régions du globe.Certains symptômes trahissent l'état de pollution de l'atmosphère.Celui qui souligne le mieux la présence de déchets en suspension dans l'air est la baisse de conductivité électrique de l'atmosphère.Ce sont des mesures de cette nature qui viennent de permettre à M.Cobb de déterminer, entre autres, que l'Atlantique Nord est maintenant deux fois plus pollué qu'au début du siècle.Tout repose sur le fait que plus l'air est saturé de déchets en suspension, moins il est conducteur.Normalement c'est par l'intermédiaire des ions (particules électriquement chargées) qu'il transporte que l'air parvient à conduire l'électricité.Les ions jouissent d'une grande mobilité dans une atmosphère saine, mais l'air est-il souillé qu'immédiate-ment leur mobilité est entravée.Dans le cas d'une atmosphère saine, il y a autant de ces ions de faible masse de neutralisés qu'il y en a de produits.À l'équilibre, leur durée de vie ne dépasse pas 300 secondes dans l'air propre, mais elle n'est plus que de 20 secondes dans les régions polluées de l'atmosphère.Les déchets en suspension dans l'air sont responsables de cette vie ionique abrégée.Ces saletés sè comportent comme de véritables pièges pour les ions qui s'y frottent.Ces derniers perdent leur mobilité et la conductivité de l'air en est réduite d'autant.Une grande part des déchets atmosphériques collecteurs d'ions sont produits par des causes naturelles: feux de forêt ou éruptions volcaniques.Pour donner un aperçu de l'ampleur de la pollution dite naturelle, les scientifiques estiment à environ 10 millions de tonnes la quantité de bioxyde de soufre (S02) crachée annuellement dans l'atmosphère par les volcans de la planète.Mais, la source la plus importante de pollution atmosphérique demeure l'industrialisation.Les centrales thermiques qui brûlent de grandes quantités de charbon ou de pétrole, sont tout particulièrement néfastes pour la santé de notre atmosphère.C'est effectivement au voisinage des nations les plus industrialisées que la pollution de l'air est la plus marquée.Les vents prédominants (qui soufflent d'ouest en est) poussent les aérosols produits aux États-Unis et au Japon, au-dessus des océans.Les mesures de la conductivité atmosphérique trahissent bien le mauvais état de l'air du large, au «voisinage» de ces deux pays.D'autre part, on note une pollution atmosphérique importante au sud de l'Inde.Ce pays n'étant pas encore industrialisé, la présence de déchets en suspension dans l'air ne peut avoir été cau- sée que par la mousson.Celle-ci entrame en effet de grandes quantités de déchets vers l'océan I ndien.Selon les endroits, le rapport entre les particules-déchets naturelles et artificielles varie considérablement.Au voisinage du Pôle Sud, les scientifiques n'ont détecté qu'une moyenne de 200 particules par centimètre cube, celles-ci étant probablement toutes d'origine naturelle.À Boulder, au Colorado, région urbaine non industrialisée, des mesures similaires indiquent la présence de 50 000 à 300 000 particules par centimètre cube, dont près de 90 pour cent sont d'origine artificielle.Comme le fait remarquer M.Cobb, dans un élan d'optimisme, les aigrettes de pollution qui s'étendent à l'est des États-Unis et du Japon, et au Sud de l'Inde, n'entachent encore qu'environ 10 pour cent de l'atmosphère de la planète.Il faut toutefois noter que les études de M.Cobb n'ont porté que sur la troposphère, une couche très mince de l'atmosphère, située à au-delà de 17 kilomètres d'altitude.Les concentrations de particules-déchets dans la stratosphère, zone de l'atmosphère comprise entre 17 et 50 kilomètres d'altitude, qu'elles soient d'origine naturelle ou artificielle, pourraient être beaucoup plus significatives en ce qui concerne les modifications globales de l'environnement.Ainsi, des mesures de la haute atmosphère sont primordiales pour une bonne compréhension du mécanisme de pollution de l'atmosphère.On peut tout de même conclure que l'activité humaine, malgré son acharnement, n'a pas encore réussi à polluer la planète de façon globale et irrémédiable.Puisque la tendance est de plus en plus au contrôle des émissions des polluants atmosphériques, faut-il aussi espérer que d'ici la fin du siècle, la planète puisse encore respirer normalement?• ?VUE DE LÀ-HAUT — Les «langues dessinées sur cette carte indiquent les endroits où on a remarqué d'importants changements dans la pollution atmosphérique de la planète.Dans trois grandes régions, on peut remarquer /'augmentation de la quantité de déchets en suspension dans Tair.Les régions de faible conductivité (dont la valeur indiquée à la suite des dates) dénotent des régions de grande contamination atmosphérique.Par exemple, la pollution de l'Atlantique Nord a doublé de 1909 (conductivité de 3,5 X 104 par ohm-mètre) à 1967 (conductivité de 1,97 X 104 par ohm-'mètre). 8/ ACTUALITÉ le seuil de l'insignifiance par Guy Chatillon Au début de chaque nouvelle année, les «savants astrologues» du monde entier envahissent les pages des petits journaux à sensation et exposent à la face du public les mille et un secrets de l'année qui vient.Les astres ont parlé: le «professeur» a gravé sur la feuille de chou un certain nombre de prédictions.Mais le temps passe, les paroles s'envolent, et les journaux jaunes ont tôt fait de gagner l'endroit qui leur convient: la poubelle.Quelques mois plus tard, il sera pratiquement impossible de retrouver une seule copie de ce journal: l'astrologue seul en garde une, guettant sa chance «d'avoir raison».Or, comme le disait un grand penseur: «Les astrologues n'ont pas le privilège de se tromper tout le temps!» Et après quelques mois, on voit ressortir ici et là un astrologue qui brandit une découpure de journal en affirmant: «Vous voyez! J'avais prédit ce qui vient d'arriver!» Avec un regard d'outre-tombe et une voix caverneuse, il blâmera les «intellectuels incrédules» et les «gouvernements imprévoyants» qui tiennent si peu compte des sages prédictions astrologiques.Et, pour Mme Toulemonde qui regarde son téléviseur en lavant sa vaisselle, de telles révélations peuvent sembler stupéfiantes.Effectivement, il est assez difficile de porter un jugement clair sur la valeur d'un astrologue.Lorsqu'un journaliste ou un reporter interviewe l'un de ces devins, celui-ci peut puiser dans son expérience et citer un bon nombre de prédictions qu'il avait faites et qui se sont réalisées.Cette liste peut sembler lui donner un bon crédit.Pour juger correctement, il faudrait pourtant faire un bilan de ses prédictions: en posséder la liste complète et contrôler combien se sont réalisées.Comme les astrologues publient généralement leurs prédictions dans des journaux que les bibliothèques publiques ne conservent pas, il est assez difficile de faire un tel bilan.Une autre difficulté vient du fait que les prédictions des astrologues sont souvent écrites de façon tellement vague, qu'on peut leur faire dire n'importe quoi.Voici, par exemple, ce que Mme Hirsig,(populaire astrologue de Montréal) disait de M.Jean Drapeau au début de 1973: «Il y aura quatre mois en 1973, soit ceux de mars, avril, août et septembre, au cours ' ! Je crois bien que monsieur le Maire lui-même ne pourrait pas dire si oui ou non cette prédiction s'est réalisée.Si l'on prend la contrepartie de ces trois situations, on peut dire que pour qu'un devin soit valable, il devrait faire des prédictions improbables, et en réaliser suffisamment.wïÊiMmïMm Mais le mot «suffisamment» est très vague: à partir de quel moment le nombre des prédictions réalisées est-il «suffisant»?Il faudrait déterminer le nombre minimum de prédictions qui devraient se réaliser pour que l'astrologue soit déclaré valable: pour les besoins du présent article, ce minimum sera appelé le seuil de l'insignifiance.desquels il pourra régler les problèmes les plus urgents de son administration et réaliser ses projets, mais.le reste de l'année, de même que l'année 1974, constitueront pour lui des échéances difficiles».(Le Nouveau Samedi, vol.84 — no 32, Montréal, semaine du 1 au 7 janvier 1973, p.3).Pour déterminer ce seuil, il faudra bien entendu tenir compte du nombre de prédictions.Plus le devin se prononce de fois, plus il augmente la quantité de prédictions qui ont des chances de se réaliser.De plus, le seuil variera en fonction de la probabilité de réalisation des prédictions telle que mesurée par les non-initiés à l'art de la divination.Il est évident que si les prédictions sont banales, on demandera que l'astrologue en réussisse beaucoup.Si elles sont fort improbables à nos yeux, on pourra se satisfaire d'un nombre moindre de succès.Si l'on veut juger de la valeur d'un devin, il faut dès le départ utiliser des notions de probabilités, ce qui n'arrange pas les choses.En effet, il y a trois cas évidents où un devin ne vaut rien: 1er cas: Aucune des prédictions du devin ne se réalise.Ce cas est vite réglé car il ne se produit pratiquement jamais.2e cas: Le devin réalise une très forte proportion de ses prédictions, mais ses prédictions étaient banales.Il est évident que je n'impressionnerai personne si je prédis avec succès que vendredi prochain à 5 heures, le boulevard Métropolitain de Montréal sera bondé; ou encore que le 28 mai prochain, les ponts de Trois-Rivières ne s'écrouleront pas; ou encore que les trois premiers bébés qui naftront à Arvida au mois de septembre seront fort aimés par leur maman.De telles prédictions sont beaucoup trop probables, et même si elles se réalisent toutes, je n'ai aucun mérite: n'importe qui pouvait prévoir ça! 3e cas: Le devin fait des prédictions improbables, mais il en fait beaucoup et en réussit relativement peu.Si je dis qu'il y aura des élections fédérales en septembre 1974, ma prédiction est assez risquée, c'est-à-dire improbable.Mais si je passe mon temps à faire de telles prédictions, en changeant de mois, il faudrait être bien malchanceux pour ne jamais en réussir une: il faudra bien qu'il y ait des élections un jour ou l'autre.Il ne reste plus qu'à inviter un astrologue à franchir notre seuil.Dans le journal Le Nouveau Samedi (Semaine du 1er au 7 janvier 1973, vol.84, no 32), les plus grandes sommités astrolo giques du monde civilisé exposaient leurs prédictions pour l'année 1973 qui venait de commencer.Il y avait, entre autres, un article du professeur Gazon.J'ai essayé de séparer les prédictions du Pr Gazon les unes des autres de façon à en faire des énoncés les plus clairs possibles.J'ai dû laisser tomber aussi un bon nombre de phrases creuses pour ne conserver finalement que 28 prédictions.Il me fallait ensuite évaluer les probabilités de chacune de ces prédictions.Pour faire la meilleure évaluation possible, j'ai consulté, dès le 12 janvier 1973, trois personnalités de l'Université du Québec à Trois-Rivières que je considère comme des gens très bien informés: un directeur de département qui se passionne pour la politique, un vice-doyen cultivé et un sociologue qui s'intéresse à la prospective.J'ai choisi pour probabilité la moyenne des évaluations faites par ces trois experts.Avec les nombres ainsi obtenus, j'ai pu calculer le seuil de l'insignifiance, et je l'ai tenu secret pendant toute l'année 1973! Le 17 décembre 1973, je suis retourné chez mes experts et leur ai demandé lesquelles de ces 28 prédictions s'étaient réalisées selon eux.(Mes experts avaient eu le temps d'oublier complètement leurs évaluations des probabilités faites onze mois plus tôt!) Ils ne furent pas toujours du même avis, mais comme ils étaient trois, j'ai réglé le problème au vote majoritaire: ma prédiction a été déclarée réalisée lorsqu'au moins deux experts sur trois se sont dits de cet avis.Un tableau résume ce travail.La colonne de gauche contient les prédictions.La suivante donne leur probabilité de réalisation d'après des gens informés.La troisième exprime la non-probabilité de cha- (utpn IM aitient ip*!) Enfin, la Gràœà ml de pop tira.Ei [ pi toi Gitondi midi dîstera .-Cerà : Donc, de 18,2 t linsijni .w pi* rai® Il piot Je *ii séée: due l’un Mavis) Wnttoi «ei, on silesdtuj *'s,lip parti.,;: ¦ '5 due réjulii.""H que prédiction.On l'obtient en faisant «un moins la probabilité».La quatrième contient les résultats de la multiplication «probabilité par non-probabilité».(Les troisième et quatrième colonnes servent uniquement pour des fins de calculs.) Enfin, la dernière colonne, à droite, indique si la prédiction s'est réalisée.Grâce à ce tableau, on peut obtenir le seuil de l'insignifiance, au prix de quelques opérations mathématiques élémentaires.En effet, le nombre de prédictions qui doivent se réaliser pour éviter au Pr Gazon d'être déclaré insignifiant s'obtient en additionnant le total de la colonne «probabilité» à la racine carrée du total des termes de la colonne «produit» multipliée par 1,645.Ce résultat est: 16,2.Donc, si le professeur ne réalise pas plus de 16,2 prédictions, il peut être déclaré «insignifiant».Or, il est surprenant de voir que le comité des experts a jugé que seulement 9 de ces 28 prédictions se sont réalisées.C'est donc une performance particulièrement mauvaise.En effet, le «professeur» a réussi moins souvent que le simple hasard ne le laisserait prévoir puisque 9 succès, c'est même moins que la probabilité estimée par les experts, soit: 12,48.Une véritable catastrophe! Je me suis dit que j'étais peut-être trop sévère: qu'est-ce qui se produira si l'on accepte qu'une prédiction est réalisée dès que l'un au moins des trois experts est de cet avis?De cette façon, on donne vraiment toutes les chances au «professeur»: dès que l'un des experts dit: «Oui, ça va! Je pense que cette prédiction s'est réalisée », on dit: «Bravo professeur!», même si les deux autres experts s'opposent avec véhémence.Eh bien! C'est inoui'; même alors, le professeur ne réussit que dans 1 5 cas sur 28, ce qui est encore en-dessous du seuil de l'insignifiance C = 16,2! Le professeur Gazon est donc un devin particulièrement insignifiant! Pour prédire l'avenir, il est tellement mauvais, que n'importe quel citoyen qui lit régulièrement les journaux pourrait faire mieux que lui! En fait, il n'a réussi que dans 32% de ses prédictions.> Prédictions du professeur Gazon pour 1973 Probabilité (selon des gens informés) Non-probabilité Produit probabilité par non-probabilité La prédiction s’est réalisée 1.Il n'y aura pas de règlement du conflit vietnamien avant le début du printemps 1973.,37 ,63 ,23 oui 2.Une paix relative s'établira entre Israël et les pays arabes au printemps 1973 seulement.,13 ,87 ,11 non 3.En 1973, l'Égypte fera une volte-face et contribuera à établir une paix beaucoup plus stable avec Israël.,33 ,67 ,22 non 4.Le roi Assam en fera lui aussi autant.,57 ,43 ,24 oui 5.La Palestine et la Syrie perturberont quelque peu la paix dans ce coin du Moyen-Orient.,83 ,17 ,14 oui 6.Une invention révolutionnaire apportera une grande amélioration dans les services téléphoniques au Québec et au Canada.,10 ,90 ,09 non 7.On construira de grandes lignes de chemin de fer dans le Grand Nord où un grand nombre de nouveaux émigrants iront s'établir.,20 ,80 ,16 non 8.En 1973, la devise des armes canadiennes (D'une mer à l'autre) sera préservée.,93 ,07 ,07 oui 9.Le Canada connaîtra une détérioration manifeste des partis politiques traditionnels parmi lesquels il y aura des luttes intestines de prestige personnel qui feront perdre la confiance que leurs électeurs ont en eux.,38 ,62 ,24 non 10.Au Québec, des partis nouveaux surgiront de cette désintégration des partis traditionnels.,18 ,82 ,15 non 11.11 y aura beaucoup de jalousie interne au sein du parti libéral du Québec.,53 ,47 ,25 non 12.Le gouvernement minoritaire de monsieur Trudeau deviendra beaucoup plus dynamique sous la poussée de l'Opposition.,80 ,20 ,16 oui 13.Des œuvres typiquement canadiennes produites par des Québécois ou des Canadiens remporteront des grands succès à l'étranger.,43 ,57 ,24 non 14.Une affaire d'intoxication par médicaments ou par aliments avariés fera des victimes et subséquemment la manchette des journaux.,67 ,33 ,22 oui 10/ ACTUALITÉ 15.Une enquête policière et gouvernementale conduira à une poursuite judiciaire contre les fabricants de ces produits toxiques.,73 ,27 ,20 non 16.Malgré quelques petits incidents, au Québec ou au Canada, on n'y décèle pas cependant les épisodes tragiques comme en 1969 et 1970.,80 ,20 ,16 oui 17.Le domaine de l'agriculture connaftra un essor, on peut dire extraordinaire.,20 ,80 ,16 non 18.Notre blé vendu à des nations étrangères contribuera ainsi à la consolidation de notre économie.,77 ,23 ,18 oui 19.L'entrée de l'Angleterre dans le Marché Commun nous sera très bénéfique économiquement.,27 ,73 ,20 non 20.Nous vendrons des produits d'uranium et des eaux lourdes aux nations européennes.,07 ,93 ,06 non 21.La France connaftra une nouvelle reprise économique extraordinaire.,50 ,50 ,25 non 22.Les seuls pays qui seront secoués politiquement et économiquement au cours de 1973 sont l'Espagne et l'Afrique du Sud.,13 ,87 ,11 non 23.En Afrique du Sud, il y aura des révoltes, et l'armée sera impitoyable contre les natifs.,45 ,55 ,25 non 24.En Espagne commencera l'ère de décadence du dictateur Franco dont la santé laissera à désirer.,58 ,42 ,24 non 25.En Espagne, les premiers indices de révolte seront manifestes.,33 ,67 ,22 oui 26.Cuba se rapprochera des États-Unis, et de nouveaux accords de même que des traités seront convenus entre eux.,70 ,30 ,21 non 27.Il est à prévoir que des relations diplomatiques seront établies entre Cuba et les États-Unis.,33 ,67 ,22 non 28.Certains dirigeants politiques du Québec se feront éclipser et seront remplacés par de nouvelles figures qui surgiront d'ailleurs que du Québec.,17 ,83 ,14 non total 12,48 5,12 t>A titre de comparaison, j'ai étudié les performances de mes trois experts.Le directeur de département qui se passionne pour la politique avait accepté 12 des 28 prédictions (c'est-à-dire: il avait jugé que la probabilité de réalisation était supérieure à 50% dans 12 cas), et sur ce nombre, 5 se sont réalisées ce qui lui fait un taux de succès de 42%.Le vice-doyen cultivé a gardé 13 prédictions dont 6 se sont réalisées: 46%.Enfin, le sociologue qui s'intéresse à la prospective avait conservé 18 prédictions dont 9 se sont réalisées: 50%.Mes trois experts sont donc tous bien meilleurs devins que le «professeur» Gazon! Caput, l'astrologie! • La formule donne 12,48 + 1,645 (racine carrée de 5,12) = 12,48 + 1,645 X 2,265 = 16,2 Le seuil de l'insignifiance est donc de 16,2 prédictions réalisées.(Si vous ne vous souvenez plus comment extraire une racine carrée, vous pouvez chercher par tâtonnements le nombre qui multiplié par lui-même donne 5,12.) Le lecteur intéressé pourra reconstituer la for- l'aide du volume «Mathematical Statistics», de John E.Fréund, publié chez Prentice-Hall.En page 201, le problème numéro 5 donne les moments de la variable «nombre de succès».Le problème numéro 1, page 208, indique la distri-, bution limite de cette variable.Et la section unidirectionnel.Avec un niveau de 5 pour cent, on obtient la formule. ACTUALITÉ / 11 EMBALLER LE PAPIER Il y a déjà plusieurs années que les producteurs de papier savent que l'addition de fibres plastiques aux fibres naturelles dans la fabrication du papier, augmente sensiblement la qualité du produit.Un nouveau procédé vient de modifier la vocation de ces fibres combinées: le blanchiment des papiers sans pollution.En effet, si nos «moulins à papier» sont si nauséabonds et s'ils rejettent tant de produits sulfureux dans leurs eaux d'écoulement, c'est uniquement parce que toutes les techniques de blanchiment utilisées aujourd'hui font appel aux produits du soufre.Or le recouvrement du papier par une couche de polyéthylène a lui aussi l'effet de blanchir le produit fini.Toutefois, le papier ainsi traité, parfaitement imperméable et souvent rigide, n'a pas toutes les qualités requises pour l'usage courant.Au cours des derniers mois, une équipe de scientifiques de l'Université de Montréal a mis au point une technique qui permet de traiter facilement un papier déjà constitué, de telle sorte que le polyéthylène en pénètre la structure, au lieu de ne former qu'une couche de surface.Le résultat est un papier qui, en plus d'être blanchi, voit sa résistance à la rupture presque doublée.Tout dépend de la quantité de polyéthylène adjointe au papier.Par exemple, le papier ainsi «encapsulé» conserve 50% de sa force lorsqu'il est mouillé, sitôt que la teneur en polyéthylène atteint 10%.LES FIBRES DU PAPIER- La nature des fibres et leur orientation décident de l'usage qu'on fera du papier.Ici, la surface du papier est vue au microscope électronique (grossissement 1 500X).A duit sans trop de frais et sans pollution à partir d'une pâte de qualité inférieure.Sans oublier que son blanchiment «propre», son opacité et sa plus grande résistance à l'effort pourraient aussi en faire un papier idéal pour l'impression.Il n'est donc pas étonnant que le gouvernement fédéral ait décidé de subventionner ce projet dans le cadre de son pro- gramme PRAI (Projets de recherche appliquée à l'industrie).Le montant ainsi accordé, pour une première année, est de 35 000 dollars, et doit être employé spécifiquement à vaincre les derniers problèmes qui empêchent cette technique de production d'atteindre l'étape industrielle.Si certaines contraintes limitent encore la vocation de ce papier encapsulé, les responsables du projet demeurent confiants que certains «papiers fins» seront prochainement produits ainsi.Et à plus long terme, de nombreux raffinements pourront être apportés à la technique, pour en généraliser l'application.On peut aussi envisager des techniques aptes à accélérer la polymérisation-cristallisation du polymère naissant, permettant ainsi d'améliorer le rendement de la production.L'industrie des pâtes et papiers est donc fortement intéressée au projet.Mais ses applications ne se limitent pas au papier.Les fibres textiles peuvent elles aussi être encapsulées par cette méthode, qui augmente là encore leur résistance à la rupture, leur endurance à l'usure, leur imperméabilité, et leur blancheur.De plus en plus, la chimie s'oriente vers les applications techniques et on ne peut voir d'un mauvais oeil cette incursion des praticiens dans un royaume trop souvent réservé aux fondamentalistes.• Le grand avantage de ce papier sur son prédécesseur, c'est qu'il est imperméable aux liquides, et ce, sans être un frein aux échanges de vapeurs.En effet, la technique mise au point par l'équipe du Dr Robert Marchessault, directeur du département de Chimie de l'Université de Montréal, implique la «cristallisation» du polyéthylène autour des fibres de cellulose, selon une structure microporeuse.D'innombrables petites sphères de cette substance plastique sont collées les unes aux autres, selon une structure qui «laisse des trous».C'est la bonne perméabilité du polyéthylène qui rend cette structure résistante à l'eau, bien qu'elle soit impuissante à interférer dans les échanges gazeux Le papier encapsulé dans le polyéthylène naissant pourrait donc devenir le papier d'emballage idéal: plus résistant, imperméable, opaque, permettant aux aliments de respirer, conservant une bonne partie de sa résistance, même mouillé.et pro- MOSAÏQUE DE VÉNUS Lors de son passage près de la planète Vénus les 5 et 6 février derniers, la sonde Mariner 10 a pris pas moins de 3 000 clichés.Cette photo de la «soeur de la Terre» a été constituée à partir d'une douzaine de ces clichés.Vue d'une distance d'environ 700 000 km, la planète nous offre le spectacle d'une atmosphère très densément chargée de nuages dont les plus rapides peuvent atteindre une vitesse de quelque 400 km à l'heure.Il n'a toutefois pas encore été possible de voir le sol de la mystérieuse Vénus. 12/ ACTUALITÉ quelque part entre l'homme et le message Alors que l'homme dispose d'outils de communication de plus en plus sophistiqués, il se rend compte que la majorité des informations reçues sont ou bien inutiles ou bien mal perçues.par Pierre Sormany Lorsque l'homme a fait ses premiers pas sur la lune, le quotidien LE SOLEI L de Québec eut l'idée de publier des commentaires recueillis à l'occasion d'une table ronde sur la question.Il apparut très tôt que si tous les adultes présents partageaient le même émerveillement, l'événement n'était pour les enfants que la réalisation —combien tardive— de ce qu'ils lisaient ou voyaient à la télévision depuis longtemps déjà.Insignifiante en soi, cette anecdote démontre à quel point la perception d'un message est tributaire de l'environnement symbolique dans lequel baigne celui qui reçoit ce message.On n'étonnera personne en affirmant par exemple que l'homme des cavernes ne réagirait pas à une soudaine sonnerie de téléphone ou aux soubresauts d'une affiche au néon, à la manière du citoyen moyen de nos grandes métropoles.On aurait donc tort de croire qu'une information donnée provoquera toujours la même réaction.Trois facteurs au moins doivent entrer en ligne de compte.11 y a d'abord le bagage culturel de celui qui reçoit le message.Un spécialiste des communications ne réagira pas au présent texte de la même manière qu'un lecteur non initié à cette science.En second lieu, vient Venvironnement social dans lequel s'inscrit le message.Combien de gens ont vu leurs lettres anodines devenir suspectes en temps de guerre?Et on admettra facilement que celui qui ne reçoit que quelques lettres chaque année risque de leur prêter plus d'attention que celui qui se voit inondé, chaque matin, par un courrier qu'il n'a même plus le temps d'ouvrir.En dernier lieu, la perception d'un message dépend aussi du vecteur qui le porte: le médium.La même information aura des effets différents selon qu'elle est transmise par écrit, de vive voix, par téléphone, radio, ou télévision.Ces «facteurs de distorsion» dans la compréhension d'une information ne sont guère nouveaux.On les trouve déjà en filigrane dans le «Cybernetics» de Norbert Wiener, paru en 1948.Depuis plusieurs années, la phrase-choc de Marshall McLu-han «The Medium is the Massage», qui met en relief l'importance de l'environnement dans la portée d'un message, a valu à son auteur sa notoriété actuelle.Mais nous sommes, dit-on, à l'ère des communications.Chaque administrateur, chaque individu même, se voit offrir une quantité de plus en plus grande de sources d'informations, se trouve confronté à un réseau de plus en plus complexe de relations avec ses proches et, tout aussi bien, avec des gens situés à des centaines de milles.Plus que jamais auparavant, se fait sentir le besoin d'une «psycho-sociologie» adaptée à ces nouvelles conditions de travail et de vie.Mais il s'agit encore d'une science naissante, dispersée, qui raffine encore ses toutes premières armes.ON NE COMPREND QUE CE QU'ON CONNAIT Si l'homme communique parfois avec ses semblables à la manière des animaux, soit par messages directs (cris d'alerte, contacts, manifestations physiques des sentiments), il utilise la plupart du temps un code symbolique (images simplifiées, signes, mots, lettres, cartes perforées).Or, la perception d'un symbole dépend toujours de l'environnement socio-culturel.Un texte spécialisé traitant de physique ou de mathématiques, par exemple, ne prend sa signification que dans le cadre de la physique ou des mathématiques de son époque, et il est évident qu'un spécialiste de ces disciplines en percevra plus adéquatement le contenu.Quoique moins évidente, la même constatation pourrait être faite à propos d'un texte tiré d'un grand quotidien, voire même de l'émission «Appelez-moi Lise»! En fait, toute conversation, même la plus banale, ne prend son sens que dans son contexte.Le spectateur en retard au cinéma met plusieurs minutes avant de «retracer» l'histoire et de donner un sens aux réparties.Les mêmes mots, employés dans un esprit différent, peuvent servir à annoncer le renvoi d'un employé, ou au contraire à lui donner une augmentation de salaire, et seule la connaissance de la situation permettra de distinguer entre ces deux hypothèses contradictoires. ACTUALITÉ / 13 UN MESSAGE CLAIR — De façon générale, la plupart des gens ne comprennent pas la majeure partie de l'information qu'on leur transmet, mais il reste des messages dont le sens ne prête à aucune ambiguité.A D'une manière toute théorique, on peut dire qu'une communication non déformée peut s'établir entre deux individus, seulement si ces deux personnes partagent un certain goût, un certain intérêt, une responsabilité commune, bref, une certaine communauté d'intérêt qui prime même sur la communauté de langage.Dans la vie, ces constatations revêtent plus d'importance qu'on ne l'imagine.Ainsi, dans la société primitive, l'homme ne communiquait qu'avec un nombre limité de personnes et finissait bien souvent par connaftre tous ceux qui étaient susceptibles de s'adresser à lui.Inutile de le dire: il risquait fort de partager avec ceux-ci la majeure partie de son existence et de ses «centres d'intérêt».Une telle société était dotée d'une forte capacité de «comprendre les messages», même lorsqu'ils apparaissent très déformés (ce que Wiener appelle l'homéostasie).La famille constitue elle aussi un milieu où l'homéostasie est forte.Qu'il suffise de penser à la capacité de la mère de «comprendre» les babillages informes de son enfant! MON VOISIN?CONN AIS PAS! Mais plus la société devient complexe, plus l'homme moderne doit entretenir des relations avec des personnes qu'il ne connaft guère et avec qui il risque fort de n'avoir rien en commun.Un chimiste réputé peut être plus près de ses collègues étrangers, qu'il ne rencontre pourtant pas souvent, que du voisin qu'il voit tous les jours.Heureusement, peu d'hommes sont si fermés sur leur spécialisation qu'ils ne puissent faire partie de plusieurs «communautés d'intérêt».Les deux voisins déjà cités lisent peut-être les même journaux (mais lisent-ils les mêmes pages?), ou suivent peut-être les mêmes séries télévisées.Ils peuvent par exemple avoir tous deux des enfants en bas âge, porter le même intérêt au système d'éducation, ou partager les mêmes opinions politiques.Une conversation entre eux risque quand même de provoquer certains malentendus.Dans certaines situations, de telles ambiguités peuvent avoir des conséquences néfastes.En affaires par exemple.Si, dans une petite entreprise, tous les administrateurs se connaissent et partagent à peu près les mêmes préoccupations, ce n'est plus toujours le cas au sein des structures modernes «supertechnocratisées».Des administrateurs de bureaux différents, dont les objectifs ne sont pas toujours concordants, doivent souvent entrer en contact.Ces gens ne se connaissent guère.Parfois même, ils parlent des langues différentes (ex: firmes multinationales).Inutile de dire que les malentendus sont presque inévitables.Le plus souvent, la seule façon d'assurer une compréhension minimale entre ces divers administrateurs, ou avec leurs clients, c'était de multiplier les contacts, les contrôles et les modes de communication (écrits, rencontres, téléphones, etc).Tout ceci conduit à un autre problème: l'encombrement des services et la perte d'efficacité qui en résulte.Malheureusement, on n'a pas encore mis au point de système qui puisse régler ce problème, lié à la nature même de ces firmes gigantesques.BLOCAGE DE CERVEAU Ceci nous amène au second facteur de distorsion des informations reçues.On peut affirmer par exemple que deux personnes qui doivent travailler ensemble auront toujours au moins quelques points en commun (ne serait-ce que ce besoin de travailler conjointement!) à partir desquels ijs pourront établir la communication.À condition d'y mettre le temps et de prendre soin d'éviter le moindre «brouillage».Mais ont-ils vraiment les moyens d'y consacrer un tel effort?Prenons l'exemple de la ville de New York.Un chercheur américain a voulu savoir comment les citoyens pouvaient y supporter le véritable «lavage de cerveau» auquel les exposent continuellement les affiches publicitaires, la signalisation routière, les postes de radio et chaînes de télévision, la sonnerie incessante des téléphones, sans parler des divers bruits qui mobilisent l'attention.Son enquête a mis clairement en évidence que dans cette métropole, plus que partout ailleurs, les gens laissent sonner leur téléphone sans répondre, refusent d'écouter les questions des passants dans les rues, ne réagissent plus aux panneaux-réclame ou demeurent indifférents aux manifestations publiques de criminalité.Les citadins de New York effectuent en quelque sorte un «blocage mental», au delà duquel leur cerveau ne répond plus.Une telle suppression d'information, fût-elle volontaire et sélective, nuit-elle au rendement des individus?Transportons-nous par exemple en l'an 2000.Un chef d'entreprise est assis dans une minuscule cellule où il trouve, à portée de la main, un ensemble de dispositifs de télécommunication capables de lui fournir, en quelques secondes à peine, toutes les informations nécessaires à la bonne gestion de > 14/ ACTUALITE Réseaux de communication DISTORSION ET BRUIT classique CANAL RÉCEPTEUR SOURCE D'INFORMATION TRANSMETTEUR DESTINATION DISTORSION ET BRUIT ENVIRONNEMENT^ \ ET CULTURE/ tenant compte des facteurs psychologiques CANAL INTERPRÉTATION DESTINATION RÉCEPTEUR BOUCLE DE RÉTROACTION SOURCE D'INFORMATION TRANSMETTEUR Le schéma d'en haut représente tout réseau de communication, qu’il s'agisse d’une conversation de vive voix ou d'une transmission des plus complexes.On le doit à Claude E.Shannon («La théorie mathématique de la communication», 1948).Son imperfection réside dans le fait que pour Shannon, la distorsion d'un message était liée soit au code employé, soit aux difficultés de transmission.Elle avait donc nécessairement Heu entre le transmetteur et le récepteur.C'était oublier tous les facteurs psychologiques ou sociaux qui influencent la compréhension du message reçu par le destinataire.// faudrait donc ajouter, entre le récepteur et la destination, une autre opération d'«interprétation», elle-même soumise à la distorsion due à l’environnement culturel et psychologique (schéma d'en bas).Enfin, avec l'avènement de la câblovision à double voie, le destinataire agira sur la source d’information, d’où l’introduction d'une boude de rétroaction.A t>son entreprise, ou de le mettre en contact avec toute personne dont il a besoin, dans le minimum de temps.Un tel projet n'est pas vraiment de la science-fiction, puisqu'un groupe d'étudiants en architecture de Montréal y travaille déjà depuis plusieurs années (Voir QUÉBEC SCIENCE, volume 10, numéro 8, Travailler dans une bulle).drer un homme nouveau.Mais l'homme n'est pas si rapide à changer, et il faudra, pour un temps du moins, apprendre à respecter ses limites.les média de communication qui constituent les réseaux modernes peuvent véhiculer l'information aussi efficacement que le faisaient (plus lentement) les rencontres ancestrales! A première vue, on pourrait croire qu'un administrateur ainsi ceinturé est dans un état idéal pour travailler avec le maximum d'efficacité.Mais justement, la quantité d'information auquel il a accès ne dépasse-t-elle pas ce seuil de «blocage mental», de telle sorte que, pour garder sa lucidité, l'homme devra sans cesse éliminer certaines données, rendant partiellement inutile le lourd réseau qui l'entoure?La mini-bulle de travail représente d'ailleurs l'exemple le plus frappant de ces possibilités illimitées des systèmes de communications et de l'impossibilité pour l'homme de s'y adapter pleinement.Même si aucun blocage mental ne se produisait, même si l'information reçue était préalablement triée, dosée, digérée, un administrateur parviendrait-il à une grande efficacité, tout en demeurant ainsi, à coeur de jour, dans une cellule qui l'isolerait du monde, en même temps qu'elle le projetterait partout à la fois?Il s'agit là d'un exemple relevant encore du futur.Mais il illustre bien qu'en matière de communications, la limite n'est pas tant technique qu'humaine.Bien sûr, comme McLuhan l'a énoncé, l'ère des télécommunications est en train d'engen- LE TÉLÉPHONE NE SUFFIT PLUS Une étude menée l'an passé à Carleton, par le Dr Kristen, pour le compte du gouvernement fédéral, a récemment permis d'établir que pour un travail «normal», la liaison télévisuelle donnait un rendement aussi satisfaisant que le «face à face», mais que le lien téléphonique seul était insuffisant.Cette conclusion, si elle se vérifie dans des recherches subséquentes, aura des conséquences énormes.Le fédéral songe en effet à décentraliser son administration en déménageant certaines équipes d'Ottawa vers Montréal ou Toronto.Vaut-il la peine d'installer entre ces édifices décentralisés un réseau de câblovision?Poser cette question revient à se demander si l'on peut travailler aussi efficacement par l'intermédiaire des liens électroniques, que par le plus traditionnel «face à face».C'est en somme se demander si Mais si le fédéral a commandité cette première recherche, il n'est pas le seul préoccupé par ce genre de questions.En effet, quoique les planificateurs urbains nant pi Elrtisj its, de taux' mut de pliéfitiye oii les coi dies, la ci l'on peut télévisuel pmeesij bL, Sistionc touillée].Momies nions sui toiie: les moins ni Piemieis Sied S pu n* et ce, naisonij (Pîfdlçh, orinuiej kurcon* Il : oïd-Onj Suvet ACTUALITÉ / 15 n'aient pas encore perdu l'habitude de la centralisation à outrance dans les centres-villes, de plus en plus de compagnies ou bureaux d'affaires choisissent délibérément de s'installer dans des «centres périphériques» (comme la Défense à Paris), où les coûts d'immobilisation sont moindres, la circulation moins engorgée, l'air plus pur, la verdure moins rare, etc.Et l'on peut se demander si la conférence télévisuelle ne remplacera pas un jour l'actuelle réunion d'affaires, lorsque les administrateurs d'une compagnie, ou leurs principaux clients, seront trop dispersés.Déjà, plusieurs entreprises publiques ou privées recourent à des conférences téléphoniques pour régler leurs problèmes de gestion courante.Ainsi, par exemple, le comité exécutif de l'Université du Québec (dont les membres sont dispersés aux quatre coins du Québec) tient trois réunions sur quatre par téléphone.Au sein de cette université disséminée sur le territoire, les conférences téléphoniques se déroulent d'ailleurs à la fréquence d'au moins une par jour.Qui plus est, les premiers détenteurs d'un doctorat en énergie de l'UQ ont suivi leurs cours de Trois-Rivières et Chicoutimi alors que leurs professeurs se trouvaient à l'Institut de recherche de l'Hydro-Québec, à Varen-nes et ce, grâce à une ingénieuse combinaison du téléphone et du téléautographe (permettant de retranscrire les tableaux et formules mathématiques requises pour leur compréhension).Ces techniques sont d'ailleurs monnaie courante pour les gens inscrits à l'Université du Québec dans le Nord-Ouest québécois.Le gouvernement du Québec et son homologue français se sont aussi intéressés à ce genre de questions, envisageant la mise en % M orbite éventuelle d'un satellite de télécommunications.C'est ainsi que le 14 juin et le 4 février derniers, des cardiologues et des administrateurs furent mis en contact, de part et d'autre de l'Atlantique, dans le cadre de téléconférences expérimentales.Il ne s'agissait que d'expériences préliminaires, visant à roder l'appareillage (les véritables téléconférences se dérouleront dans la semaine du 6 mai), mais déjà les premiers commentaires font état de la difficulté ressentie par ces divers spécialistes: absence de réactions spontanées, soumission forcée au cadrage et aux micros, etc.UNO I AGNOSTIC HUMAIN Tant qu'il ne s'agit que de divertissement, d'information générale (comme dans les média de masse), les télécommunications ne semblent pas poser tellement de problèmes, économiquement du moins.Mais sitôt qu'on entre dans les réseaux spécialisés d'information, à l'intérieur d'un organisme, ou entre divers groupes appelés à travailler conjointement, l'efficacité de l'outil du communicateur moderne pose des points d'interrogation.Aucune des trois «sources de distorsions» mentionnées plus haut n'apparaft généralement seule.Dans l'exemple de la minicellule de travail, se posent à la fois le problème de la surcharge de l'information et celui de l'efficacité du médium électronique.Dans le cas des téléconférences France-Québec, des malentendus peuvent surgir tant de l'utilisation d'un lien télévisuel plutôt froid que de la «marge culturelle», source d'incompréhensions au niveau du langage employé, ou des attitudes montrées à l'écran.Il est donc difficile de «diagnostiquer» les problèmes de communications qui affectent la majorité des sociétés géantes.La faille peut résider dans les hommes, relais du système de communications, dans la surcharge de ce système, ou dans les modes de transmission des informations.Ces problèmes sont encore nouveaux.La science possède bien peu d'instruments efficaces pour les cerner.Jusqu'aux années 1950, la recherche en communication ne couvrait que les aspects techniques ou économiques de la question.Dans les derniers 20 ans, quelques laboratoires, dans les universités américaines surtout, se sont penchés sur les aspects socio-psychologiques.Mais le principal effort portait alors sur les média de masse, phénomène aussi nouveau que révolutionnaire, et qui paraissait prioritaire.Ce n'est que tout récemment que les prouesses des concepteurs de réseaux (et l'efficacité souvent douteuse de leurs «petites merveilles») ont mis en évidence la nécessité de fouiller du côté des mécanismes de transmission d'un message, et de son interprétation.L'homme a des raisons que la technologie ne connaft pas.• 16/ ACTUALITÉ TÉLÉCÂBLES À DOUBLE SENS A l'heure actuelle, seuls quelques moyens (tel le téléphone) permettent la communication à double voie (ou bidirectionnelle).Les véhicules d'information les plus courants, radio, télévision et imprimés sont en quelque sorte des média sourds.Les sondages, les émissions «à ligne ouverte» et les traditionnelles lettres à l'éditeur constituent autant de moyens de connaître la réaction des gens face aux média.Mis à part les sondages (qui, quelques fois, peuvent s'avérer scientifiquement valables!), on peut affirmer que le citoyen ne possède que peu de moyens pour exprimer ses réactions face à l'information.D'ailleurs, les émissions à lignes ouvertes ou les lettres à l'éditeur ne représentent pas des échantillons valables de l'opinion de l'ensemble des gens.De plus, seuls quelques privilégiés travaillant surtout dans des grandes entreprises ou les universités ont accès à des données qui pourraient être utiles à bien d'autres.L'époque de l'accès restrictif à l'information, des média sourds et des gouvernements s'appuyant sur une majorité soi-disant silencieuse s'achève: d'ici trois ou quatre ans, la communication bidirectionnelle sera offerte à un grand nombre de Canadiens et, d'ici vingt ans, elle sera d'un usage tout à fait généralisé, complétant ainsi la boucle de tout réseau de communication en permettant la rétroaction (étape essentielle qui permet de modifier le message de la source au destinataire).Comment y parviendra-t-on?Tout simplement en transformant les télécâbles.Déjà plus de 25 pour cent des foyers sont abonnés au télécâble au Canada et Vancouver, avec ses 100 000 abonnés, occupe le premier rang dans le monde à cet égard.Or, les exploitants de télécâbles au Canada et aux États-Unis utilisent un système à liaison directe (circuit de fonction) comportant six, douze, ou autant de canaux qu'en demande le système.On peut s'y abonner par un branchement qui relie tous les canaux à un téléviseur.Les signaux écoulés par cette liaison sont répétés et retransmis par des amplificateurs disposés à intervalles réguliers.Pour rendre possibles les communications bidirectionnelles, il suffit d'ajouter des amplificateurs à deux voies, ou encore d'installer deux câbles côte à côte fonctionnant en sens inverse.Il faut ensuite installer un terminal d'ordinateur chez l'abonné, le reliant ainsi à un centre de données.Le tout, pour environ $11.50 par mois.C'est ainsi que dans un futur très prochain, nous pourrons avoir accès aux banques de données des organismes publics, émettre notre opinion sur les politiques gouvernementales, voire effectuer nos achats, sans quitter nos pantoufles.Grâce à un échantillonnage sélectionné automatiquement par un ordinateur, nos dirigeants sauront à quoi s'en tenir sur MESURER LA PLATITUDE DES ÉMISSIONS TÉLÉVISÉES S'il est un domaine où la technologie a précédé la science fondamentale, c'est bien celui des communications.Il n'est pas nécessaire d'être un auteur de science-fiction pour imaginer une société où chaque individu pourrait être relié à un ordinateur central capable de lui transmettre à la fois les dernières nouvelles, une multitude de renseignements pertinents, mais aussi capable de porter ses messages, compléter pour lui certaines tâches, etc.Si cette vision dithyrambique demeure dans le domaine du possible, sa réalisation n'est guère certaine.Il ne s'agit plus de savoir ce qu'on peut faire avec l'électronique, mais quels seront les effets d'un tel système, quelles sont les limites humaines d'adaptation.Nouveau champ de recherche qui se développe, de manière encore disparate, principalement autour des universités ou des firmes spécialisées dans la technologie des communications.Au Canada, le premier effort systématique en ce domaine, c'est la naissance récente du laboratoire de communications de l'Université de Montréal, grâce à des subventions de près de $150 000 en deux ans.Au programme, plusieurs projets sont déjà en marche, dont l'analyse des téléconférences, sous la responsabilité du Dr Kristen, anciennement de Carleton, Ontario, (projet dont il est question dans le texte principal), ainsi que la recherche sur le travail en cellules de James Taylor (voir «Travailler en cellule»).Mais en outre, le laboratoire a entrepris des études sur la qualité «esthétique» des images télévisuelles canadiennes.Il s'agit de comparer, à partir d'une sélection statistique d'images (la programmation étant composée de 30 images par seconde, 1 800 par minute, 108 000 par heure, etc), les contenus visuels des différentes chaînes, ou les émissions de différentes origi- leurs politiques et les directeurs de la radio-1 11*®11 télévision pourront tout à leur aise mesu- j| entt^ rer la platitude de leurs émissions.|| ttitwf M oinsP1» La technologie requise est déjà pratiquement au point.Les États-Unis et le Japon s'apprêtent d'ailleurs à y investir des sommes considérables.Pour sa part, le Canada, selon une étude de M.Jean-Michel Guité, pour le compte du Groupe d'étude sur la téléinformatique au Canada (voir «Pour en lire plus»), devrait s'orienter du côté de la programmerie (software), le matériel, dont la provenance n'a pas le même impact culturel que l'information ou la programmerie, pouvant être importé facilement.Une fois les outils rendus disponibles, il faudra savoir s'en servir.Et l'impact socio-culturel d'une telle innovation sera si fort qu'il ne faut pas se fier aux autres pour «programmer» ce genre de communications.N'est-il pas révélateur que la première élection effectuée par scrutin électronique —expérience faite par le système de télécâble à Manhattan, New York— ait porté non pas sur une question d'une brûlante actualité, mais sur l'élection d'une «Miss terminal domestique 1971»?• I Mui lîMStt I «à Jiensdi autM ioiifditu M j I II n’est | I nuire « Il cations I il masses» Il tes amer ÉraaJ Il par Geo || té de I’ll '«"le.P; nés à l'intérieur de chaque chaîne, et selon les critères les plus objectifs possible : couleur, conception de l'image, variation du cadrage, variété du décor, etc.En seconde étape, la recherche s'attaquera à l'analyse des thèmes ainsi que des séquences.C'est le CRTC qui finance cette recherche, dont un des buts est de démontrer que la qualité baisse d'année en année sur nos écrans de télévision.En fait, ce premier laboratoire de recherche fondamentale sur les communications espère devenir, avec les années, le lieu de regroupement d'une multitude de projets entrepris dans les universités québécoises.Parmi ces recherches, on pense à des études sur l'impact de la télévision sur le comportement (psychologie), l'utilisation des liens télévisuels en éducation (pédagogie), la planification des réseaux urbains de communication (urbanisme), la conception des bureaux fonctionnels de l'avenir (architecture), l'utilisation du futur Satellite Technologique de Télécommunications canadien, etc.• Its films lamltm Otleuis csttg vision et tftitpe »,pot sillon ifi Pif tout! Stan Toot a, tecom «SOCï 't*î1 "Wed.adrnjfw Assom illaitc c1 * It m0; : ACTUALITE / 17 CHERCHER L'HOMME Une communication ne peut s'établir entre deux individus que s'ils partagent certains goûts, certaines aspirations, certains problèmes, s'il existe entre eux en quelque sorte une communauté d'intérêt.En exposant tous les membres d'une même région au même message, quelle que soit la formation de chacun, le médium de masse joue un rôle de premier plan dans la «fabrication» de «communautés culturelles», au delà des clivages qui pourraient subsister dans une société aussi complexe que la nôtre.Véritable pouvoir normalisateur capable de réduire à néant la société de classes (après tout, le prolétaire et le patron sont tous deux de fermes partisans des Canadiens de Montréal!), la télévision et les autres media de masse partagent aujourd'hui un pouvoir que seule la religion possédait dans le passé.Il n'est pas étonnant que le premier domaine qui ait intéressé les chercheurs de cette «psycho-sociologie» des communications fut celui de l'impact des media de masse sur les individus.Plusieurs universités américaines sont entrées dans la ronde.Entre autres, notons les équipes dirigées par George Gerbner, d'abord à l'Université de l'Illinois, puis à celle de la Pennsylvanie.Parmi leurs recherches: étude de la perception collective de la maladie mentale aux États-Unis; idéologie inhérente aux bulletins de nouvelles; la perception du professeur, de l'école et de l'éducation, à travers les média de masse; l'image-type du héros dans les films américains et dans les films étrangers; la fonction sociale de la violence dans les émissions de T.V., etc.De leurs expériences, les chercheurs de cette équipe ont dû conclure que la télévision et les autres média de masse contribuent peu, dans la structure actuelle des choses, à influencer le comportement des gens, pour des actions spécifiques (acquisition d'un produit, orientation d'un vote) Par contre, la véritable puissance de ces média, c'est de contribuer à maintenir des structures relativement stables et «conventionnelles» pour la société.Tout comme la religion qu'elle a remplacée comme facteur culturel, la télévision apparaft comme une force de conservatisme social! Dans un article-bilan qu'il publiait dans le cadre d'un numéro spécial de Scientific American sur les communications (Septembre 1972), Gerbner attribue ce fait au mode de gestion des média, qui incite les administrateurs à présenter un produit le plus souvent conforme à l'opinion majoritaire, c'est-à-dire un contenu qui déplaise le moins possible.Mais de manière contradictoire, si le «message» télévisuel est un ferment de conservatisme social, le médium joue quant à lui un rôle important dans l'évolution socioculturelle.L'exemple donné au début du texte concernant la réaction des enfants à l'arrivée de l'homme sur la lune illustre fort bien ce fait.Ici, c'est McLuhan qui a raison: c'est le médium bien plus que le message qui prend de l'importance.Un simple exemple, de McLuhan celui-là, vient confirmer cette hypothèse.En projetant la guerre du Vietnam dans tous les salons américains, la télé a contribué à l'établissement d'une société à l'échelle de la planète, où Saigon et Hanoi n'étaient pas plus loin, somme toute, que le plus TRAVAILLER Dans le domaine qui nous intéresse, les expériences sont encore rares, souvent très partielles, et la plupart du temps non encore achevées.La science en est encore à raffiner ses outils d'investigation.Pourtant, un schéma expérimental conçu par James Taylor, directeur du laboratoire de communications de l'Université de Montréal, revêt une importance particulière parce qu'il se rapproche de l'analyse du travail en mini-cellules dont il est question dans le texte.L'expérience avait pour but initial de répondre à un certain nombre de questions: dans un réseau très complexe de cellules de travail (des individus isolés ou des petits groupes), reliées par un lien électronique télévisuel, une seule personne travaillant mal suffit-elle à compromettre l'efficacité de tout le réseau?Est-il aussi facile, dans une telle situation, de «déceler» l'inefficacité et de la corriger?Compte tenu du vaste potentiel d'un tel système, où se situe effectivement le «seuil d'encombrement», au delà duquel toute information supplémentaire perturbe l'organisation de travail?Et quelle forme prendra cette organisation?Pour répondre à ces questions (et à d'autres qui pourraient surgir en cours d'expérimentation), le laboratoire est aujourd'hui équipé de 5 mini-cellules reliées entre elles par télévision.L'ensemble est placé sous la surveillance d'un régisseur.Divers individus, occupant chacune des cellules, doivent travailler à une tâche commune (comme par exemple établir une stratégie militaire: attaque d'une fie) en fonction d'informations que le régisseur leur transmet de manière sélective, et à un rythme variable (ex.: grosseur de l'fle, situation géographique, etc.).La tâche à accomplir doit ressembler le plus possible aux problèmes réels, c'est-à-dire ne pas avoir proche village.Dans une telle société, la guerre elle-même devenait intolérable, et l'évolution de l'opinion américaine tient bien plus de la «projection quotidienne» de la guerre que de la prise de position des éditorialistes ou reporters.D'ailleurs, la guerre n'a pas cessé, mais parce que les Américains n'y sont plus, officiellement du moins, la télévision aussi s'est retirée de ce coin du monde et le mouvement de paix s'est estompé.Les Vietnamiens meurent autant, les Américains pacifistes le sont toujours, mais le médium n'y est plus et c'est comme si la guerre n'existait plus! • EN CELLULE une solution unique, nécessiter certains choix, favoriser la discussion, etc.M.Taylor formule deux hypothèses de départ: «Il nous semble plausible de supposer que les gens vont devoir s'organiser selon une structure centralisatrice, confiant à un élément du groupe la responsabilité décisionnelle, à partir des informations mises en commun.Mais comme seconde hypothèse, on croit que cette structure deviendra de plus en plus instable à mesure que l'information rentrera de manière massive, augmentant en quelque sorte la pression sur le réseau.» L'expérience porte actuellement sur le cadre, somme toute restreint, du travail en cellules isolées.Pourtant, si les hypothèses se vérifient, elles pourraient fort bien être généralisées à tout système de «partage d'information—prise de décision», à toute organisation décisionnelle en somme.Cela pourrait par exemple justifier l'organisation pyramidale commune à la majorité des entreprises et expliquer en partie l'instabilité qui accompagne souvent la croissance de ces firmes.De là à passer de l'exploration «fondamentale» à la recherche clinique (études de cas), il n'y a plus qu'une question de temps.mais d'un laps de temps qui risque d'être encore long.• ENl/IRONNE/HENT LES MANGEURS D'ORMES En moins de quinze ans, une maladie fatale a tué de 600 000 à 700 000 du seul arbre ornemental que nous possédions: l'orme.Le fléau, la maladie hollandaise de l'orme, s'étend déjà sur une superficie de 70 000 kilomètres carrés, dans 55 comtés du Québec, et menace de destruction totale les «témoins de notre destin» (comme le dit si bien Georges Dor).Sous nos latitudes, les ormes qui peuvent vivre de 100 à 200 ans, supplantent de loin les érables, sous cet aspect.Malheureusement, toutes les espèces d'orme indigènes sont vulnérables à la maladie, y compris l'orme blanc, l'orme rouge et l'orme liège.La maladie provoque d'abord le flétrissement et le brunissement rapides puis le jaunissement et le nanisme graduels des feuilles.La mort de l'arbre suit d'ordinaire de un à trois ans plus tard.Les premières études de cette maladie ont été faites par des chercheurs des Pays-Bas (vers 1920), d'où le nom de maladie hollandaise de l'orme.La source du mal est le Ceratocystis ulmi assisté de son complice le scolyte de l'orme.Ce dernier est un insecte coléoptère qui niche sous l'écorce des arbres en y creusant de nombreuses galeries.Les scolytes hivernent à l'état larvaire et ce n'est qu'à la fin de juin que les adultes sortent pour se nourrir de l'écorce de petites branches d'orme.La plus grande partie de leur progéniture apparaft en août et en septembre.Seuls quelques-uns des adultes qui sortent à la fin de l'été, peuvent s'accoupler, pondre et faire naftre des larves qui hiverneront à leur tour.C'est lors de la nutrition des insectes porteurs de spores que les ormes sont touchés par la maladie.Véhiculé par l'insecte, le Ceratocystis ulmi, un champi- TÉMOIN DE LA MORT — Sur cette photo on peut distinguer les effets de la maladie hollandaise de Terme à deux stades principaux de son évolution: au centre et à l'arrière plan, des arbres totalement irrécupérables; à droite, un survivant de la maladie.Ce dernier est un candidat tout indiqué pour l'étude du mécanisme de défense de forme, face à l'assaut du champignon vorace.?R.Gagnon gnon microscopique, pénètre sous l'écorce des ormes où il commence rapidement son travail destructeur.Il s'y multiplie et envahit systématiquement les réseaux vasculaires de l'arbre.Grâce à la microscopie électronique, on sait maintenant que l'intrus pathogène détruit les parois des cellules de l'orme et provoque la dégradation des vaisseaux et autres cellules avoisinantes.Il peut même se rendre jusqu'aux assises des tiges et des racines (où prennent naissance le bois et les tissus porteurs de sève) et y entraver le cours normal de la différenciation des cellules.Sous l'apparence de dépôts qui maculent les parois des vaisseaux de l'arbre, le champignon se développe et commence à détruire l'arbre de l'intérieur.En l'espace de quelques heures, le mouvement de la sève aura entraîné les champignons microscopiques dans tous les recoins du réseau vasculaire de la plante.Toutefois, selon leur âge et la rapidité de l'invasion, les cellules vivantes du bois peuvent être très rapidement exterminées, ou réagir contre l'attaquant.L'orme possède donc un mécanisme de défense qui lui permet de ralentir, sinon de stopper complètement la maladie.La réaction de défense se traduit par l'apparition de plusieurs couches boucliers qui enrobent les cellules encore vivantes.Cependant, l'effet pathogène du champignon se traduit tôt ou tard par les symptômes chroniques du jaunissement, du nanisme et de la chute prématurée des feuilles.À cette activité pathogène s'ajoute le comportement dynamique destructeur de la prolifération des champignons qui pro- VAISSEA U X» TTAQUÊ - Très tôt après leur entrée en scène, les cellules du champignon (matière noirâtre) se sont attaqué à la paroi du vaisseau de l'arbre.Leur activité pathogène, combinée à la grande pression qui règne dans le vaisseau, leur ouvre la voie vers les cellules de Tarbre.Sur cette photo prise au microscope électronique (grossissement 13 750 X), le mouvement de pénétration du pathogène est mis en évidence par l'alignement des débris.T vaisseau cellule pathogène G-B.Ouellette voque la rupture des parois des vaisseaux de la plante.Puisant leur nourriture au sein même de l'arbre, les envahisseurs se multiplient à un rythme effarant et, sous leur poussée, les canaux porteurs de sève se rompent.Les bris causés par l'expansion rapide des masses de champignons, favorisés par leur action pathogène, sont considérables et ne tardent pas à entraver complètement l'écoulement du liquide nourricier de la plante.Le flétrissement et la mort de l'arbre sont alors presqu'iné-vitables.Il en coûte extrêmement cher pour enlever les restes des victimes.D'autre part, le fabricant de meubles n'arrive plus que difficilement à s'approvisionner en bois d'orme.De même, le prix des cercueils grimpe devant la pénurie de cet arbre, autrefois très répandu; l'orme qui déployait son ombre sur les champs fleuris des cimetières ne peut plus espérer un ensevelissement décent après sa mort.Même la production de bâtons de hockey se trouve compromise.Et ce n'est là qu'un bref exposé des problèmes que soulève la disparition des ormes.Devant ce fléau qui menace jusqu'à notre sport national, que fait-on pour enrayer le mal?On ne dispose malheureusement pas encore d'une méthode qui soit commercialement applicable pour guérir un sujet atteint par la maladie hollandaise de l'orme.Cependant, il existe plusieurs moyens d'empêcher la maladie de se propager des arbres malades aux arbres sains.Les quatre principaux types de protection sont: la quarantaine, le nettoyage, la protection chimique et les procédés expérimentaux.DÉFAITE — Une trentaine d'heures après le début des combats, les cellules du champignon pénètrent dans une alvéole où se désintègre Tune des cellules de forme.Témoins de cet envahissement: le déplacement de la paroi et le repli de l'enveloppe de la cellule de Tarbre.Cette photo a été prise au microscope électronique avec un grossissement de 11 250 fois.T G.B.Ouellette pathogène ENVIRONNEMENT/19 La quarantaine, méthode importante de protection, a pour objet de restreindre le transport d'ormes et de produits de l'orme d'une région infectée vers une région saine.Dans cette veine, le gouvernement fédéral a adopté, il y a déjà 40 ans, une loi qui interdit d'importer du bois et des produits de l'orme.Le nettoyage consiste à détruire, le plus tôt possible après la contamination, tous les arbres malades ou morts.Les arbres affaiblis sont un lieu de prédilection pour les scolytes et il faut donc en couper les branches mortes ou mourantes.Puisque la maladie peut aussi se propager par les racines, il est impérieux d'isoler l'arbre atteint en creusant une tranchée (profonde d'environ un mètre) entre ce dernier et des arbres sains.La protection chimique repose, depuis la mise au rancart du DDT, sur le perfectionnement et l'utilisation bien dosée d'insecticides qui soient à la fois efficaces contre le scolyte de l'orme et écologiquement acceptables.L'insecticide le plus approprié est \e méthoxychlore.On l'applique par vaporisation, au début du printemps, avant que les feuilles n'apparaissent.Les méthodes expérimentales concernent directement la connaissance approfondie du mécanisme d'évolution de la maladie.La lutte biologique est l'une des méthodes à l'étude.Elle vise la réduction des populations de scolytes par des parasites et des insectifuges.Sur un autre plan, le croisement d'arbres devrait permettre de créer une variété résistante d'orme, par le croisement des espèces indigènes avec des variétés étrangères plus résistantes.Sous ce rapport, on a constaté que plus les vaisseaux des hybrides obtenus sont petits, plus grande est la résistance à la maladie.Mais, les travaux expérimentaux les plus intéressants et les plus prometteurs portent sur la chimiothérapie.Cette dernière approche mise sur l'introduction, dans l'arbre, de fongicides ou de mélanges qui régulariseraient la croissance pour prévenir l'infection ou arrêter la propagation de la maladie.Au Centre de recherche forestière des Laurentides, du Ministère de l'environnement, le Dr G.B.Ouellette poursuit actuellement des travaux qui devraient conduire à une meilleure compréhension du mécanisme de défense de l'orme.Dans certains ormes résistants à la maladie, on a noté qu'il se dépose des substances qui semblent ralentir la croissance du champignon, allant même jusqu'à l'emprisonner.Non seulement ces substances contribuent au ralentissement de l'invasion du pathogène, mais encore, elles participent à la réparation des tissus affectés.Une fois ce mécanisme élucidé, il sera sans doute possible de mettre au point un vaccin contre la maladie hollandaise de l'orme.Le vaccin en question aurait pour effet de stimuler et d'accélérer la réaction de contre-attaque de l'orme, au moment d'une invasion de la maladie.Contre les hordes de champignons mangeurs d'ormes, cette dernière méthode de protection semble de loin la plus appropriée puisqu'elle fait appel au processus naturel de défense de l'arbre.Les problèmes subséquents consisteront à déterminer jusqu'à quel point le champignon destructeur pourrait s'adapter et modifier ses tactiques face à la contre-attaque de l'orme?D'année en année, la calotte boréale ne cesse d'accroftre sa superficie.En octobre 1972, par exemple, la couverture de neige et de glace était deux fois plus importante qu'au cours du même mois de 1968.Cet accroissement de la superficie des glaces boréales pourrait fort bien avoir causé le climat anormal qui a marqué les années 1972 et 1973.Des cartes préparées par la National Oceanic and Atmospheric Administration (NOAA), à partir de photos prises par des satellites météorologiques, permettent (depuis déjà cinq ans) de dresser la cartographie précise des régions polaires.Le climat terrestre est influencé d'une part,par l'énergie solaire reçue et d'autre part, par l'aptitude de la croûte terrestre à emmagasiner cette énergie.La végétation constitue un excellent absorbant de la lumière du soleil, puisqu'elle en retient de 80 à 85 pour cent.Les océans font encore mieux, puisqu'ils l'accumulent à près de 95 pour cent.Mais on ne peut en dire autant de l'eau solidifiée.En effet, sous forme de glace, l'eau devient un véritable bouclier d'énergie et renvoie vers l'espace interplanétaire, près de 98 pour cent de cette chaleur dont la terre a besoin.Pour accentuer le problème, elle ne se contente pas de «réfléchir»; en fondant, elle absorbe une quantité de l'énergie calorifique que la terre avait stockée.C'est pour cette raison que dans les régions nordiques, les maxima de température suivent le moment d'insolation maximum avec un retard d'environ 6 semaines.De façon permanente, 10 millions de kilomètres carrés sont recouverts de glace dans l'hémisphère nord, alors que dans l'hémisphère sud, la superficie correspondante atteint 14 millions de kilomètres Malgré l'envergure et la complexité des problèmes, les travaux progressent rapidement.Les chercheurs ont bon espoir de pouvoir bientôt offrir à la société, un programme efficace de lutte contre la maladie hollandaise de l'orme, maladie qui a déjà fait suffisamment de victimes.Comme dans la fable de La Fontaine, ils n'en meurent pas tous, mais tous en sont atteints, et ceux qui en réchappent portent sans doute en eux le germe de la survivance de l'espèce.• carrés.Les variations saisonnières élèvent ces valeurs jusqu'à 50 millions pour l'hémisphère boréal et 20 millions pour l'hémisphère austral.Les variations de superficie sont plus marquées au Pôle Nord qu'au Pôle Sud, simplement parce que ue les continents y sont plus étendus.Ainsi, la neige et la glace seront plus longtemps retenus au nord qu'au sud.Pour l'hémisphère nord, le recouvrement minimum a été de 9,5 et 9,8 millions de kilomètres carrés pour les années 1971 et 1973.D'autre part, 1972 a été marqué par des neiges et des glaces qui ont alors couvert pas moins de 10,3 millions de kilomètres carrés.Cette même année, la circulation des couches atmosphériques différait considérablement de son état plus ou moins consistant des années précédentes.L' activité cyclonique en Atlantique nord et à l'ouest de l'Europe atteignait alors un point culminant.A cette époque, l'Amérique du Nord connaissait un hiver de froids records.Dans les régions tropicales, la pression atmosphérique moyenne était sensiblement plus basse que la normale et les perturbations y ont été très fréquentes.Pendant ce temps, l'Asie centrale connaissait des périodes de grandes sécheresses désastreuses pour la production agricole de cette partie du monde.La cartographie des régions polaires en est à ses débuts.Il serait donc prématuré de conclure que le climat anormal de 1972 est une conséquence directe de la superficie occupée par les glaces polaires au cours de l'année précédente et donc, qu'il aurait pu être prévu.Cependant, en raison du lien étroit entre la distribution de la neige et de la glace, et les réserves de chaleur des océans de la planète de même qu'avec la circulation de l'atmosphère, une telle conclusion prend du sens.• L'INVASION DES GLACES ?: =: ^ LAMAHÉRE LA PRÉVSKXM MÉTHODE DETRAIIML LATECHMQUE LUTERACTION L’ÉCCXOGIE L’ÉVOLUTION Sciences Physiques : cinq fascicules Sciences Biologiques : cinq fascicules (à paraître en Mai 74 : La démarche scientifique) Dix cahiers de Fiches de rapport (un cahier par fascicule) Un Guide méthodologique Editions Hurtubise, 380 ouest, rue Craig, Montréal, H2Y U9 — Tél.: 849-6381 ENVIRONNEMENT/ 21 «EL NINO» A MANGÉ LES ANCHOIS S r ¦ jo bqojoo iæ^SS lEiMllB^ ISSÊrii BcS'eai lEsâliiz! Ssac: H K- ?¦¦¦¦! «¦¦V «¦Il *'3 Eaasarr: UN ARÔME EMPOISONNÉ En 1975, les nouvelles automobiles promettent d'être un véritable régal pour les amateurs de polluants.En effet, les monstres roulants, non seulement consommeront encore plus d'essence que jamais, mais encore, nous la recracheront sous la forme d'un nouveau polluant auquel nous n'avions pas encore eu la chance de goûter: l'acide sulfurique! Cette nouvelle saveur nous sera offerte dans un pot d'échappement mis au point à grands coups de millions.Les maîtres queux de l'industrie américaine de l'automobile sont parvenus à ce résultat en tentant d'éliminer une bonne partie des gaz toxiques (tel l'oxyde d'azote) auxquels nous étions habitues.Leur secret?Il s'agit tout simplement de faire circuler les gaz d'échappement dans une petite enceinte contenant de la limaille de platine.Mais voilà, après que les compagnies eurent consacré des dizaines de millions de dollars à mettre «au point» cet épurateur-miracle (le platine, ça ne,court pas les rues), des scientifiques sont venus perturber l'apprêt du chef d'œuvre technologique en constatant que son arôme était empoisonné.Certes, cet épurateur suprême élimine les gaz toxiques habituels, mais // éjecte du même coup de l'acide sulfurique dans une proportion dix fois supérieure à la limite considérée comme tolérable pour la santé.Mais —et c'est là le plus tragique de l'histoire— la sauce gâchée ne semble pas perdue pour autant: les législateurs américains qui avaient ordonné la mise au point d'un système anti-pollution automobile plus efficace que ceux qui existent actuellement, se demandent si, en raison des investissements énormes déjà consentis par les compagnies (General Motors, à elle seule, a déjà englouti seize millions de dollars dans la «chose»), il ne faudrait pas tout simplement demander à la population de s'habituer à l'acide sulfurique.Point de vue d'ailleurs partagé d'emblée par les géants de l'automobile.On pourra toujours trouver une solution de rechange pour 1976.Après tout, un an pour goûter pleinement l'acide en question, ce n'est pas beaucoup.Il faut toujours un dindon à la farce et le public n'aura qu'à rester sur son appétit en attendant de savoir quelle saveur aura son «monoxyde de carbone» en 1976.B.D.• ?UN ENORME PETIT POISSON - La carte ci-dessus, extraite de /'Atlas des ressources biologiques des mers de la FAO indique, selon la grandeur des poissons, l'importance relative des captures sur les plateaux continentaux.C'est en effet près des côtes que Ton trouve les remontées d'eau profondes riches en sels nutritifs pour le plancton.Après avoir conduit les sardines de Californie et le hareng de l'Atlantique sur le chemin de l'extinction, l'homme se prépare-t-il à faire de même avec l'anchois du Pérou?En fait, le virage est déjà amorcé.Les prises annuelles d'anchois péruviens, qui atteignaient normalement les 10 millions de tonnes, se sont effondrées à 4,5 millions de tonnes en 1972.Or, les anchois du Pérou fournissaient les deux cinquièmes de la farine de poisson produite dans le monde, largement utilisée pour nourrir les animaux.Fascinés par cette ressource presque inépuisable, les hommes ont oublié qu'elle était fondée sur un mécanisme fragile.En temps normal, un courant froid qui remonte le Pacifique Sud vers l'Équateur est repoussé au large de la côte péruvienne par les vents alizés soufflant du sud-est.En s'éloignant de la côte, il provoque une remontée d'eaux profondes riches en nitrates et en phosphates.Ces engrais déclenchent une véritable explosion de plancton végétal, festin pour les anchois.Mais certaines années, les alizés faiblissent et les eaux chaudes descendant du sud repoussent le courant froid au sud de l'Équateur.Les remontées d'eau profondes sont stoppées de même que la croissance du plancton.Les anchois s'évanouissent et les pêcheurs reviennent les filets vides.Ce phénomène se produit souvent au moment de Noël et a été baptisé «El Nino», l'enfant.Lorsque El Nino est venu pour la dernière fois, il est resté, mais les anchois sont partis.Présentement, l'Organisation des Nations unies pour l'Alimentation et l'Agriculture (FAO) envisage un chantier scientifique international pour faire le point sur El Nino.• sortir les vill Il en va des inondations comme du reste: les lois de la nature sont telles que celle-ci finit toujours par avoir le dernier mot.Quand on joue avec le feu.on se retrouve inondé.)eio«t il; Ctlîlj ¦ ENVIRONNEMENT/23 s des rivières / par André Delisle De tout temps, les civilisations se sont développées sur les bords des cours d'eau importants.Divers facteurs expliquent cette prédilection de l'homme.La facilité d'accès et la fertilité des rives ont rapidement fourni à l'occupant sa nourriture (poissons et cultures), son eau potable et des pâturages pour ses bêtes.Les cours d'eau lui ont aussi servi de voies de communications et de véhicules pour le commerce de ses produits.Le Québec n'a pas dérogé à cette tradition; il suffit, pour s'en convaincre, de repérer sur une carte géographique les sites des villes et villages, la plupart installés sur les bords du fleuve ou d'une rivière principale.Aujourd'hui encore, les villes anciennes se développent et des villes nouvelles se bâtissent le long des rivières, à part quelques cas isolés (villes minières).Cette occupation progressive des rives ne se fait pas sans inconvénients.Les zones riveraines sont occasionnellement envahies par les eaux et la situation va en empirant parce que les propriétaires riverains, ignorants des conséquences, empiètent souvent sur le lit des cours d'eau.Ceci explique en grande partie le problème des inondations.D'importants dommages ont été causés dans les dernières années aux villages situés sur les bords de la rivière Chaudière, de la rivière St-Fran-çois, de la rivière Ste-Anne de la Pérade et de bien d'autres encore.Depuis quelques années, la vallée du Richelieu et la région de Montréal subissent les méfaits de la crue printannière.Les données recueillies au Québec sur les dommages démontrent des pertes annuelles de plusieurs millions de dollars, pertes qui restent très élevées, malgré de nombreux travaux de protection.LE SAINT-LAURENT NE FOUR-NIT PLUS Depuis deux ou trois ans, le niveau des Grands Lacs brise tous les records au printemps.Si l'on considère que ces étendues d'eau ont une superficie totale de 184 000 kilomètres carrés, on comprend facilement que le Saint-Laurent ne puisse pas évacuer ce trop-plein sans problèmes.Ces écarts ont pour conséquences des inondations importantes, tout le long du fleuve, en particulier dans la région de Montréal.Le haut niveau du Saint-Laurent qui en résulte, a pour effet de nuire au drainage de tous les bassins qui se déversent dans le fleuve, et même de refouler des eaux dans les affluents.Ceci explique de façon partielle les nombreux débordements de certaines rivières importantes, que ce soit la rivière Outaouais, le Richelieu, la Yamaska ou les autres affluents.Ce problème des Grands Lacs est bien connu des autorités ontariennes, qui ont à subir les inondations riveraines.Au Québec, le phénomène, à cause de son ampleur, atteint des proportions nationales.Les dommages dus aux inondations sont très élevés; le tableau 1 nous renseigne sur cette situation.Les principales inondations sont celles du Richelieu et du fleuve Saint-Laurent dans la région de Montréal.L'augmentation des coûts d'inondations de 1970 à 1971 ($2,6 M.à $3,8 M.) a été attribuée à un hiver anormalement neigeux, occasionnant un débordement exceptionnel du Richelieu.Une partie importante des dommages d'inondations estivales a été causée par l'ouragan DO R IA, qui a laissé sur le sud du Québec de 5,00 à 6,25 centimètres de précipitations en 24 heures.Quant à l'augmentation considérable de 1971 à 1972 ($3,8 M.à $21 M.), le Bureau de la Statistique du Québec a incriminé les désastreuses crues printan-nières de la région de Montréal et de la Vallée du Richelieu, ainsi que les pluies exceptionnelles de l'été qui ont dévasté plusieurs régions du Québec.Les chiffres élevés tiennent compte des pertes de rendement de la production maraîchère dans les régions les plus fertiles.Malgré l'importance des sommes en cause, il ne faut pas surestimer le problème des inondations au Québec.Celui-ci, bien que justifiant des mesures correctives, n'est pas alarmant.Les dommages, comparés à ceux d'autres pays sont minimes.La principale raison est la faible densité de population sur le territoire québécois.Pour être qualifié de sinistre par les experts, un seul excès de la nature doit provoquer des dommages évalués à une moyenne de $1 par habitant.Or, pour le Québec, il^ faudrait qu'une seule crue printannière cause des dégâts pour plus de 6 millions > 24/ENVIRONNEMENT Dommages d'inondations Bureau de la statistique du Québec 1967 $ 872 351 1968 3 212 811 1969 2 1 22 192 1970 2 639 484 1971 3 772 870 1972 21 251 005 1973 4 895 000 Tableau 1 ?Les problèmes causés par les inondations ne sont pas nés de la dernière pluie.Ces photos, tirées des archives du ministère des Richesses naturelles, nous montrent le pont de Saint-Joseph de Beauce et une partie des ravages causés aux maisons environnantes.en 1917.A iw|i fer!" J.>de dollars.Un tel déluge ne s'est pas encore produit.SOUMETTRE LA NATURE L'attitude de l'homme face à ces phénomènes naturels, technologique ou écologique, suggère deux façons d'intervenir.L'une consiste à corriger les irrégularités du régime des cours d'eau, en domestiquant la nature pour la soumettre aux besoins de l'homme; les partisans de cette approche tentent d'empêcher, si possible, les cours d'eau de déborder de leurs lits.L'autre revient à adapter l'activité humaine au comportement de la nature et à ses écarts; elle vise même à utiliser les avantages des excès de la nature pour améliorer la vie de l'homme.Dans le cas précis du Saint-Laurent, les seules structures de contrôle capables d'influencer le niveau de l'eau sont situées à la sortie du Lac Supérieur et du Lac Ontario.La gestion de ces barrages est très complexe parce que basée sur des ententes internationales impliquant les États-Unis, l'Ontario et le Québec.Les décisions doivent alors tenir du compromis: protéger en même temps les riverains des Grands Lacs et ceux de la vallée du Saint-Laurent.Dans des cas aussi complexes, les méthodes de contrôle des inondations ne suffisent pas à éviter les dommages dûs aux débordements; il faut envisager des mesures à court et à long terme en vue de les prévenir.Ces mesures préventives sont nombreuses bien que peu connues, comme d'ailleurs les mécanismes mêmes des inondations.Deux exemples québécois de bassins fréquemment affectés par des problèmes d'inondations nous permettent de comprendre certains mécanismes fondamentaux d'inondations et les mesures de protection qu'on envisage d'y installer: le Richelieu et la rivière Ste-Anne (comté Portneuf).UN LIT SANS REBORDS Les crues printannières sont en grande partie responsables des débordements de la rivière Richelieu.Un printemps tardif dans cette région occasionne une fonte de neige intense dans un temps relativement court.De ce phénomène résulte une augmentation sensible du débit dans un intervalle de temps restreint.Les niveaux d'eau enregistrés sont alors supérieurs au niveau normal et provoquent l'inondation des terres basses.Certaines caractéristiques particulières du Richelieu et de ses berges viennent amplifier cette situation.Le Richelieu coule dans une basse plaine qui favorise la formation des inondations.La topographie particulière de ses rives entrafne donc des débordements très importants pour une faible hausse de niveau.Quelque 16 kilomètres carrés de terres ont été submergées au printemps 1971, de la mi-mai au début juin; on a évalué à plus de 120 kilomètres carrés, les surfaces inondées en 1972.De plus, la présence d'un haut-fond dans le lit de la rivière à la hauteur de Saint-Jean et d'Iberville gêne considérablement l'écoulement des eaux en périodes de crues.Ce «barrage naturel» diminue sensiblement la capacité d'évacuation de la rivière Richelieu dans les moments critiques.Le gouvernement du Québec a proposé une solution multiple à ce problème.Ces mesures consistent à creuser un chenal de trois kilomètres de long sur 210 mètres de large en amont de Saint-Jean, à supprimer la retenue naturelle que forme l'amas de roches des rapides Milles Isles et à les remplacer par un seuil artificiel: un barrage rétractable pour contrôler ia hauteur du niveau d'eau de la rivière.U NE RIVIÈRE TORRENTIELLE La rivière Sainte-Anne de la Pérade prend sa source dans le Parc des Laurentides et coule en torrent jusqu'à la région de plaine entourant Saint-Raymond (comté Portneuf).Les inondations sur cette rivière sont de deux types: en eau claire et en périodes de débâcles.Les crues en eau claire sont engendrées par des pluies abondantes qui viennent gonfler la rivière Sainte-Anne.Les causes ne sont pas très évidentes du fait que plusieurs facteurs entrent en jeu.Le relief joue un rôle important: les averses et les fontes de neige donnent lieu en montagnes à un flot de crue torrentiel, fortement ralenti à son arrivée dans la plaine; il s'y produit alors une accumulation d'eau et des débordements dans les basses terres.Le relief accidenté de la rivière Sainte-Anne et le climat pluvieux typique des régions montagneuses nordiques expliquent donc ce premier type de crues.Quant au problème des glaces, il est bien connu des scientifiques.La zone des rapides en amont de Saint-Raymond devient, au début de l'hiver, productrice de frasil.Celui-ci s'accumule dans la partie de la rivière où la pente est faible.Cette glace forme alors un bouchon qui ferme rivière.Les eaux de fonte du printemps doivent ensuite se frayer un chemin hors du lit de la rivière pour s'écouler.Encore ici, les ingénieurs responsables proposent une solution visant à modifier le régime d'écoulement du cours d'eau.Cette solution consiste à draguer le lit de la rivière en vue d'abaisser les lignes d'eau au voisinage de Saint-Raymond.On installera aussi un barrage-seuil, transition artificielle entre le régime torrentiel et le régime fluvial.Ce seuil aura l'avantage de permettre la formation et la progression du couvert de glaces sans accentuer la remontée des niveaux d'eau.CONTRÔLER L'INCONTRÔLABLE Ces deux exemples représentatifs de la situation québécoise, nous renseignent sur les causes principales d'inondations.La fonte rapide d'un manteau nival (contenant une moyenne de 30 centimètres d'eau) et les crues dues à des pluies torrentielles, surtout dans les régions montagneuses, causent la plupart des inondations.Ces facteurs sont d'ailleurs accentués par des pratiques telles que le déboisement intensif et le drainage excessif des terres. ENVIRONNEMENT/25 ?Pour contrôler les débordements de ces deux capricieux affluents du Saint-Laurent, les ingénieurs proposent l'installation d'un barrage seuil sur la rivière Sainte-Anne (carte 1 ) et le creusage d'un chenal.La figure représente également les murs de soutènement déjà construits à Saint-Raymond le long des berges de la rivière.Pour la Richelieu (carte 2), ils recommandent de creuser un canal en amont d'Iberville et d'y ériger un barrage de contrôle de niveau afin d'éviter que l'eau ne se propage dans la zone d'inondation (en blanc sur la figure).Jusqu'ici, les solutions envisagées émanent d'une perception technique des problèmes.On vise le contrôle des crues, par la modification du régime des rivières.Les mesures de protection suggérées utilisent la plupart du temps des moyens physiques ou des aménagements impliquant des changements dans l'environnement.Les mesures les plus courantes sont: la construction de digues, l'amélioration du chenal, la dérivation des eaux et l'installation de retenues.Cependent, les aménagements correctifs n'offrent pas de garantie totale contre les risques d'inondations.En fait, ils protègent contre les inondations les plus «probables».alors que ce sont les moins «probables» qui s'avèrent les plus désastreuses! En pareils cas, les correctifs ne peuvent pas empêcher le désastre de survenir.Les dommages élevés causés par les inondations sont significatifs de cette carence, malgré les sommes importantes dépensées par les gouvernements pour l'application des mesures conventionnelles (barrages, digues, chenaux, etc.).Il faut songer à d'autres solutions, non plus dans une tentative de domination des éléments naturels, mais dans la perspective d'une adaptation aux contraintes de la nature.S'ADAPTER À LA NATURE Les résultats de la première option, traditionnellement retenue, sont décevants: malgré des aménagements correctifs de plus en plus nombreux, les pertes dues aux inondations continuent.Ne devrions-nous pas concentrer nos énergies sur le second choix, qui implique des facteurs humains et sociaux plutôt que techniques et physiques?Trois Rivières • Lac Saint • Pierre Le Saint- Laurent Seuil de transition et estacade Ile Lefebvre Murs de protection Pont Tessier Pont Chalifour La rivière Sainte-Anne tendance à installer de nouvelles constructions plus près de la rivière qu'auparavant! Deux faits empiriques, il est vrai, mais qui nous forcent à constater un manque flagrant de compréhension des mécanismes de crues et un besoin réel d'information de la part des individus qui veulent bâtir dans les plaines d'inondations.Sinon la course aux désastres continue.Une éducation appropriée facilitera l'acceptation de mesures restrictives quant aux installations nouvelles le long des cours d'eau, techniquement «protégés» ou non.Deux faits ou anecdotes sont intéressants à confronter.Quand on survole ou visite une région de campagne inondée, on remarque que les vieilles maisons de cultivateurs sont pour la plupart à l'abri des inondations.Les ingénieurs ont aussi noté que lorsque la protection est accrue sur les bords d'une rivière par des aménagements en milieu hydrique, les citadins ont Certaines mesures théoriques existent déjà pour arriver à une utilisation rationnelle des rives des cours d'eau.Les municipalités riveraines peuvent, par exemple, effectuer le zonage des espaces bordant les cours d'eau.Les basses terres, servant de prolongement naturel au lit des cours d'eau en temps de crues, constituent la plaine d'inondation.Des règlements de- I ber vil le Limite de la zone d'inondation ffj La rivière 5/ Richelieu vraient encadrer le développement dans ces endroits susceptibles de subir des dom mages.Le zonage complet ou partiel de la plaine d'inondation établit des normes qui définissent les restrictions ou interdictions touchant le secteur exposé.DES STATIONNEMENTS RIVERAINS Le zonage complet consiste à interdire la construction de bâtiments permanents, qui risquent d'être détériorés par l'eau dans les zones habituellement ou exceptionnellement inondées, c'est-à-dire dans la plaine d'inondation.Le zonage partiel s'applique dans les régions déjà construites.Le coût prohibitif de relocalisation des bâtiments existants élimine la possibilité d'interdiction totale d'occupation de la plaine d'inondation.Des règlements peuvent toutefois affecter les nouvelles > 26/ENVIRONNEMENT PLAINE D'INONDATION Inondations exceptionnelles zonage et assurances Inondations fréquentes agriculture et récréation (aucune construction) CRUE MAXIMUMA ACRUE MAXIMUM Exemple d'un aménagement conçu d’après un plan de zonage qui respecte les contraintes de l'environnement.Un te! exemple reste malheureusement théorique au Québec du moins.[> constructions quant à leur emplacement ou à leur résistance à l'eau.Néanmoins, dans ce cas, la probabilité de dommages subsiste et l'on suggère d'accompagner ce zonage partiel d'un plan d'assurances-inondations à la disposition des propriétaires riverains déjà établis.Ces systèmes de zonage ont aussi l'avantage de permettre l'utilisation temporaire de la plaine d'inondation; certaines activités se déroulent dans des périodes ne présentant aucun danger de crues et demandent des aménagements temporaires ou non susceptibles d'être endommagés par les inondations.Des activités telles que l'agriculture, le loisir, le camping et même le stationnement urbain répondent à ces exigences, dans certaines conditions d'opération.La figure ci-dessus représente théoriquement un tel plan de zonage de la plaine d'inondation d'une rivière.Au Québec, on est encore au stade des études.L'idée de zonage, négligée jusqu'à maintenant, commence à faire son chemin.Le gouvernement cherche à accompagner les aménagements de protection contre les inondations de plans de zonages appropriés.Tel est le cas dans le projet d'aménagement de la rivière Ste-Anne dont nous avons parlé plus haut.La participation gouvernementale présuppose l'établissement par la municipalité de St-Raymond d'un plan de zonage interdisant les nouvelles constructions sur les berges de la rivière, dans les limites de la municipalité.Les citoyens de St-Raymond devront adopter des règlements de zonage stricts pour empêcher les catastrophes dans les zones critiques.Nous voyons que l'application de tels plans, ainsi que la surveillance subséquente, relèvent des municipalités et sont conditionnées par l'acceptation des citoyens.Ces méthodes sont loin d'être pratiquées partout au niveau municipal; on préfère encore risquer des pertes et réclamer le rembourse- ment par le gouvernement des dommages éventuels., tentative souvent inutile.L'ÉCOLOGIE, ÇA SE RESPECTE La ville de Ste-Marie de Beauce, a adopté à l'automne 1972 un règlement visant à protéger les berges de la rivière Chaudière.Ce règlement n'est pas précisément un zonage visant à empêcher l'occupation de la plaine d'inondation, mais une mesure pour éviter les empiètements sur le lit de la rivière et faciliter l'écoulement des eaux, diminuant ainsi les risques d'inondation.Ce règlement interdit la construction dans le lit de la rivière, au delà des berges existantes, de tout travail d'amélioration ou de construction, même ceux de nature à protéger les propriétés ou immeubles riverains contre les méfaits de l'érosion et de la crue des eaux.De tels travaux devront être faits en ligne avec les rives actuelles et les ouvrages déjà aménagés.Il est important de réduire les empiètements dans les cours d'eau pour diminuer les probabilités d'embâcles et de débordements.Devant la gravité du problème des inondations dans la Beauce (voir QUÉBEC SCI EN CE, vol.11, no 5, février 1973), on saisit toute l'importance que revêt un tel règlement pour assurer le respect des limites naturelles de la rivière Chaudière.Évidemment, on est encore loin du zonage de la plaine d'inondation.Cependant une telle initiative marque le pas.On dispose maintenant des informations nécessaires à la mise en marche de projets de prévention des dommages dus aux inondations.Depuis 1967, le Bureau de la Statistique du Québec et le ministère des Richesses naturelles compilent des observations sur les caractéristiques des rivières concernant les inondations, sur les dommages d'inondations et sur le coût des mesures de protection.On connaft aussi les moyens techniques disponibles pour le traitement de ces données.Il ne reste qu'à s'attaquer à l'étude des solutions les plus adaptées dans chacun des cas.• m ¦U- - I ^ Même si la débâcle s'est produite, elle laisse derrière elle de nombreuses et coûteuses traces, en particulier sur des routes construites bien souvent à coups d'élections.et de millions.A ÜPJfiil ÜM&l ii mm Qu’ils soient modernes ou non, les quartiers résidentiels ne peuvent pas, eux non plus, s'établir sans coup férir dans les zones susceptibles d’être inondées.A ENVIRONNEMENT/ 27 LE SUSPENSE DU PRINTEMPS iilB'l; ÜPOOI: 1 « jiüîfr tlMr IA’ .«Si Il fut un temps où dans la Beauce, les gageures allaient bon train à mesure que le printemps commençait à gruger les glaces de la Chaudière.Chacun s'acharnait à prédire le lieu et l'heure du malheur des autres, le jour où la traditionnelle inondation viendrait lécher les gouttières du toit de la maison du voisin.ou de la sienne.A présent, un barrage de cinq millions de dollars retient le frasil et garantit un printemps sans histoire aux habitants des villes et villages en amont de Saint-Georges de Beauce.Les paris et les prédictions des Beaucerons reposaient sur des bases bien plus scientifiques encore que celles de Loto-Québec: la connaissance du mécanisme de la débâcle.En effet, le printemps des rivières québécoises suit un scénario qui ne varie presque pas d'année en année et dont le dénouement invariable est la débâcle, lorsque des amoncellements formés de millions de glaçons et pesant jusqu'à deux tonnes, descendent une rivière à 10 kilomètres à l'heure.Ce scénario quasi immuable, M.René Boisvert, de la direction de l'aménagement des rivières au Ministère québécois des richesses naturelles, le connaft bien.Il lui arrive même de risquer sa vie à dynamiter des embâcles lorsque des rivières récalcitrantes s'écartent du scénario classique.Voici comment il le voit.Presque toute la population du Québec habite le bassin du fleuve Saint-Laurent.C'est donc sur ses bords, près de ses affluents, que les inondations désastreuses se produisent.Le fleuve lui-même est un cas particulier, puisqu'il ne fournit pas à absorber les crues printannières en provenance des Grands Lacs.Qui plus est, ses affluents du sud ne se comportent pas comme ceux du nord.Ces derniers, qui coulent du nord au sud ne posent pas tellement de problèmes.Par contre, les affluents de la rive sud, qui ont la tête au chaud et les pieds au froid, ajoutent au suspense du printemps québécois.L'évacuation des glaces dans les rivières du sud se complique: les glaces qui décollent à la source se trouvent stoppées dans leur marche vers le fleuve par le couvert de glace qui règne encore sur la partie nord de la rivière.De plus, la majorité des rivières de la rive sud ont un profil tel qu'elles constituent de véritables machines à glace.Ce profil est composé de trois segments: une première partie en pente raide —immédiatement après la source— suivie d'une plaine à écoulement lent et d'une partie en rapides, juste avant d'arriver au fleuve.Dès que la température descend en bas de 0°C au début de l'hiver, l'air froid pénètre à la source dans toute la section de la rivière à cause de la turbulence engendrée par les rapides.D'innombrables cristaux de glace de la taille d'une tête d'épingle, se forment alors sur toute l'épaisseur de la rivière.Ces flocons de frasil s'agglomèrent rapidement en plaques d'une glace opaque et collante.En l'espace d'une nuit, la rivière fabrique ainsi des millions de tonnes de glace de frasil.Plus bas, dans la zone calme, les plaques s'accumulent, se soudent, et le couvert prend forme.(Seules les rivières aux eaux très calmes ont un couvert de glace formé par le gel de l'eau de surface.La glace ainsi formée est dure et transparente.) Évidemment, les rapides de la source sont les derniers à geler.Les blocs de frasil vont se cogner contre le couvert formé plus bas et s'empilent en dessous, jusqu'à ce qu'ils occupent tout l'espace entre la surface gelée et le fond de la rivière.Heureusement, le débit de la rivière à ce moment de l'année, se trouve diminué de beaucoup et une ouverture équivalente au huitième de la section de la rivière, permet à l'eau de s'écouler tout au long de l'hiver.A noter que s'il y avait uniquement formation de glace de surface, l'épaisseur du couvert ne dépasserait pas 75 centimètres.À cause du frasil, la rivière gèle de fond en comble.Quelles mesures peut-on prendre alors pour faciliter la débâcle printannière?D'abord arrêter le frasil à la source.C'est la solution qu'on a mise en œuvre sur la rivière Chaudière en construisant un barrage en amont de Saint-Georges de Beauce.Tel n'est pas le cas partout, hélas! Dans le cas par exemple d'une fonte prématurée due à un temps doux dès le début de mars, l'écart de température peut atteindre de 6 à 7°C entre le haut et le bas du bassin d'une rivière dans le sens sud-nord.La débâcle commence à la tête.Les glaçons viennent s'empiler contre le couvert encore intact de la plaine.L'embâcle se produit; le débordement s'ensuit.Il ne reste plus qu'à évacuer: on ne peut agir puisqu'il faudrait faire sauter sur toute la longueur de la rivière une couverture de glace encore solide.Dans la version optimiste du scénario, le thermomètre s'échauffe lentement, les glaces s'amollissent et deviennent verdâtres: elles «pourrissent» ni plus ni moins sur place et lorsque survient la crue, le couvert gelé n'oppose pas de résistance et descend calmement jusqu'au fleuve.à moins qu'il ne voit sa marche entravée par un haut fond, un bloc de glace irréductible ou, tout simplement, les piliers d'un pont (à noter que de nos jours, la Voirie prévient les coups: elle profile et oriente les piliers des ponts de façon à ce que leur face la plus mince soit dans le sens du courant).C'est la version pessimiste.Un embâcle se construit lorsque des blocs de glace de deux à trois mètres de largeur et de deux tiers de mètre d'épaisseur descendent la rivière à plus d'un mètre/seconde et s'empilent les uns sur les autres.Un barrage se forme alors.Les blocs continuent d'arriver et se déplacent vers les extrémités de la digue.L'embâcle s'élargit et une fois bien en place, peut aisément maintenir une différence de niveau d'eau de plus de quatre mètres.Que faire alors?La plupart du temps, on doit se résoudre à évacuer la région.On peut aussi, lorsque l'embâcle s'est formé sous un couvert de glace, faire appel aux experts du Ministère des richesses naturelles: le dynamitage, en dernier recours, peut renverser la situation.Pas dans n'importe quelle condition cependant.Il faut en effet que la rivière soit complètement dégagée en aval du pont de glace, de façon à permettre l'évacuation immédiate des glaçons.Puis, en remontant vers l'embâcle, on fait sauter des tranches d'une quinzaine de mètres de longueur à coups de grappes de trois bâtons de dynamite.Pour ce faire, il faut percer la glace rapidement et placer l'explosif dans l'eau.Chaque tir prend environ une demi-heure et, à tout instant, l'embâcle peut céder de lui-même.On serait porté à traiter en héros les hommes qui défient de tels dangers.Mais M.Boisvert s'avoue très sceptique vis-à-vis une telle approche: aussi spectaculaire qu'elle paraisse, elle ne s'avère pas du tout efficace.Règle générale, lorsque l'on a recourt au dynamitage, la glace est déjà «pourrie» et trop molle: elle arrête rapidement l'onde de choc.11 faut jusqu'à trois jours pour avancer de 300 mètres.M.Boisvert renchérit: «Ce remède de la vingt-cinquième heure, qui ne réussit qu'une ou deux fois sur quatre ou cinq essais, ne vaut pas les méthodes préventives.» Les riverains de la Châteauguay le savent bien.Depuis près de cinq ans, ils préviennent les coups en découpant le couvert de glace de la plaine d'inondation.En 1973 cependant, un printemps hâtif les a pris par surprise avant qu'ils aient terminé l'opération et un embâcle s'est formé.De O 28/ ENVIRONNEMENT > même, au nord immédiat de Montréal, sur la rivière des Prairies, des chaloupes de débarquement converties en mini-brise-glaces empêchent la formation d'un couvert de glace de frasil, jusqu'à ce que les rapides à la sortie du lac des Deux Montagnes cessent de fabriquer cette «colle».Les mini-brise-glaces labourent ainsi une dizaine de kilomètres de rivière durant les premières semaines de l'hiver.Toutes ces mesures de prévention ont une valeur certaine, remarque M.Boisvert, mais on constate que plus on les applique, plus les gens ont tendance à se rapprocher des rives et, même, à empiéter sur la rivière, de sorte que malgré les mesures préventives, les dégâts d'inondation ne s'en trouvent pas diminués pour autant: le dénouement du suspense est le même! La meilleure solution demeure encore de respecter la rivière.et de s'établir ailleurs que dans son lit.• LA SAINTE ANNE EN TOUT PETIT L'étude sur modèle réduit est une technique d'hydraulique fluviale, permettant de reproduire à l'échelle du laboratoire, tout un tronçon d'une rivière, pour aider à chercher les solutions aux problèmes des cours d'eau.La complexité de certains problèmes rend leur solution théorique difficile; le modèle réduit offre l'avantage de produire, à demande, des crues, des embâcles de glaces, et autant de ces phénomènes que l'on retrouve en nature.Le modèle permet aussi de prévoir le comportement à court et à long terme des cours d'eau, suite à l'implantation de nouvelles structures dans le lit naturel.Le problème de la rivière Ste-Anne présentant cette complexité, on a décidé de recourir à la reconstitution à l'échelle réduite du tronçon problème de la rivière Ste-Anne à St-Raymond.Des observations échelonnées sur plusieurs mois ont permis d'obtenir les dimensions les plus économiques des barrages nécessaires, mettant en évidence la solution optimale du problème.L'échelle verticale du modèle est de 1/72 du système réel et l'échelle horizontale est de 1/150.Ceci introduit évidemment une distorsion, dont on a dû tenir compte dans les essais de simulation.L'examen du comportement de la rivière, par des essais successifs, a permis d'envisager la solution de dragage et de contrôle du régime d'écoulement.L'étude sur modèle réduit a suggéré que le dragage de la rivière permettrait LEFEBVXE de contenir la montée des eaux pour des crues plus abondantes que ne le permet la rivière dans les conditions actuelles.Les niveaux atteints en certains points pour une crue de fréquence de 2 ans (c'est-à-dire, pouvant statistiquement se produire à tous les 2 ans), ne seraient égalés que pour une crue de fréquence de 4 ans; les niveaux caractérisant actuellement une crue de 10 ans ne seraient pour leur part atteints qu'au moment du passage d'une crue de 20 ans.On remarque que cette solution n'offre pas de garantie totale contre les risques d'inondations pour toutes les crues possibles.Elle assure toutefois une sécurité plus grande en périodes de débâcles comme au cours de crues importantes; elle atténue aussi la portée des dommages encourus lors de débordements.• 29 LA SCIENCE & LA S/4NTÉ LA MECANIQUE GENETIQUE I II y a moins de deux ans, des chercheurs suédois mettaient en évidence un fait inquiétant: chaque cellule humaine perdait quotidiennement environ 50 000 morceaux d'un constituant essentiel du DNA, la molécule complexe qui contrôle l'activité cellulaire et recèle l'information héréditaire.À partir de cette constatation on pouvait se poser deux questions: était-ce tout simplement la cellule qui expulsait les débris des DNA brisées qu'elle avait réparées ou bien, cette perte de «purines», une des molécules qui relient entre elles i les deux grandes chafnes du DNA, était-elle reliée à l'éternelle question du vieillissement?En fait, les travaux du Dr Walter Verly, de l'Université de Montréal permettent de croire que l'expulsion de ces purines évite l'intoxication des cellules.Voici comment se dessine le rôle des purines selon ces recherches.Le DNA est une longue chafne qui adopte grosso modo la forme d'une échelle tordue en spirale.De chaque côté, les montants de l'échelle sont formés par des atomes de phosphore et des molécules de sucre (désoxyribose).Les «barreaux» de l'échelle sont composés de paires de molécules possédant deux anneaux de carbones (purines) ou un seul anneau (pyrimidines).On comprend que, pour obtenir une I largeur constante, les barreaux doivent grouper toujours une purine (guanine ou adénine) et une pyrimidine (thymine ou i cytosine).C'est la succession de ces paires qui constitue l'information génétique.Lorsqu'une purine est perdue, l'endonucléase retrace cette lésion, et son rôle est essentiellement de «casser» la chafne phosphore-sucre (les montants de l'échelle), près de cet endroit.Comment cette activité destructrice pouvait-elle être la première étape de la réparation du site apurinique?Pour répondre à cette question, les chercheurs disposaient de l'exemple de la réparation des dommages causés au DNA par les rayons ultraviolets: une endonucléase spécifique reconnaît le site endommagé et coupe là aussi la chafne nucléique, juste à côté de la lésion.Interviennent ensuite deux autres enzymes, la D N A-polymérase et la ligase.La première détruit une courte partie de la chafne rompue, comprenant le site altéré, et la remplace par une chafne neuve; la seconde intervient ensuite pour la soudure finale qui reconstitue une molécule de DNA intacte.DES BARREAUX QU! CASSENT - Les purines constituent la molécule de base de l'adénine (A) et de la guanine (G), deux des quatre types de barreaux qui relient les deux chafnes moléculaires du DNA.A On a supposé que le processus pourrait être le même pour la réparation des sites apuriniques, sauf que l'endonucléase-U.V.serait remplacée par l'endonucléase pour sites apuriniques.Et c'est cette hypothèse qu'ils ont pu vérifier/n vitro: un DNA qui a perdu des purines peut être complètement réparé en l'incubant avec un mélange de ces trois enzymes.Le trio d'enzymes réparatrices utilisées dans l'expérience précédente provenait de la bactérie Escherichia Coli.Il fallait maintenant prouver que ces enzymes existaient dans toutes les cellules, et que le mécanisme d'entretien du DNA découvert chez E.Coli était tout à fait général.Cela revenait à une «chasse à l'enzyme» pour retrouver l'endonucléase pour sites apuriniques dans diverses cellules.Ce fut un succès! On la trouva tant chez des végétaux que chez des cellules animales.On a tout récemment mis en évidence que cet enzyme existe, et de manière très active, chez les bactéries thermophiles.Ces cellules vivent en milieu très chaud (aux environs de 80°C) et cette température les rend beaucoup plus susceptibles de souffrir de la dépurination du DNA.Si cette recherche est susceptible de donner des dividendes du côté de la chimiothérapie du cancer où l'on utilise des drogues provoquant des dépurinations pour s'attaquer aux cellules cancéreuses, ce n'est cependant pas dans cette direction que le groupe montréalais dirige actuellement ses efforts.La question du vieillissement cellulaire intrigue Walter Verly: pourquoi un tissu meurt-il après 30 ou 40 générations cellulaires?Y aurait-il une corrélation entre la diminution de l'activité des enzymes préposés à l'entretien du DNA et le vieillissement des tissus?Une autre question retient aussi l'attention des biochimistes de Montréal: les cellules cancéreuses sont-elles capables de regénérer leur DNA qui se dégrade spontanément?Ne le feraient-elles pas mieux que les cellules normales, ce qui expliquerait leur immortalité?• LE FLUOR DURCIT LES DENTS Depuis qu'on a constaté que la présence de fluorures dans l'eau potable diminuait la carie dentaire, on supposait que le fluor possédait des vertus cariostatiques.On possède maintenant l'explication du mécanisme d'action des fluorures sur l'émail dentaire.Ce mécanisme est basé sur la nature même de l'émail dentaire, formé d'hydroxyde de calcium (plus exactement d'hydroxyla-patite).Le remplacement partiel de l'hy-droxylapatite par un fluorure (la fluorapa-tite) dont la solubilité est moindre, entraf-ne donc un durcissement de l'émail des dents.On a noté que l'absorption de fluorures lors de la période de formation des dents conduit effectivement à une dentition où les fissures de l'émail s'avèrent minimes.La carie ne trouve donc plus où se loger. 30 « LA GRANDE AFFAIRE » Tous les soirs, à la radio de Radio-Canada, de 19 h à 20 h, Jacques Languirand vous conduit Par 4 chemins.Classée parmi les émissions de variété parce que l'on y fait tourner des disques de musique pop, de jazz, de folklore et de chansonnette, son animateur en a fait une sorte de magazine qu'il n'ose pas dire scientifique et qu'il qualifie plutôt de «pseudo-scientifique».Pourtant, il faut reconnaftre qu'on apprend beaucoup à écouter Par 4 chemins.En effet, l'auteur de McLuhan à Pythago-re et professeur de communication à l'Université de Montréal, a eu l'idée originale de séparer ses disques avec des commentaires inspirés des grandes revues scientifiques.À une époque où l'on parle d'un désintéressement envers la science on s'explique mal le succès de l'émission.Mais non.« Le public est fasciné par la science, surtout les jeunes, affirme Languirand.La science et la technologie sont entrées dans notre vie quotidienne à un tel point qu'on ne peut pas avoir de préoccupations pseudo-scientifiques; la vraie science m'échappe.Lorsque j'ai eu l'idée de l'émission, je voulais rejoindre les gens de 30 à 35 ans.Il me faut bien l'admettre, j'ai 42 ans.De plus j'ai comme politique qu'on ne parle jamais qu'aux siens si on veut se faire comprendre.Mais l'aspect musical de l'émission semble avoir séduit un large auditoire chez les jeunes.Il n'y a qu'une certaine élite qui m'écoute chez les gens plus âgés.11 faut donc que je fasse attention de ne pas faire l'oncle Jacques.— Mais vous êtes avant tout un homme de lettres, l'auteur de nombreux textes pour la télévision et le théâtre, n'avez-vous pas cette méfiance envers la science que l'on attribue généralement aux littéraires?— Je crois à la science.Il y a beaucoup de problèmes qui nous viennent de la façon dont on a utilisé le progrès’, de la façon dont on a intégré la machine à notre vie.Mais c'est l'utilisation de la technologie qui est en faute, pas la science elle-même.Il faut plus de science, pas moins, et additionnée d'une nouvelle sagesse.— Une nouvelle sagesse?— Oui, la science est limitée sur ce plan.Pourtant, le prolongement de a science, c'est la sagesse.Par exemple, lorsqu'on lit les textes de certains astrophysiciens on se demande si cela a été écrit par un mystique ou un scientifique.On y dit qu'il y a deux grandes réalités physiques, la matière et l'énergie.Et l'énergie, cela ressemble drôlement à la conscience.À partir du moment où l'on parle d'énergie, il commence à y avoir confusion entre scientifiques et mystiques.J'essaye de rapprocher encore plus la science et la mystique.Il me semble que l'on va vers cela.Plus la technologie va avancer, moins elle sera lourde.Prenez l'exemple des lampes qui ont été remplacées par les minuscules transistors.Il ne faut pas moins de technologie, mais plus de technologie.11 n'y a rien de moins humain qu'une machine à vapeur.Il faut aussi que la science s'occupe de l'homme.En lisant toutes ces revues scientifiques, ce qui me frappe c'est l'énorme décalage entre nos problèmes et où sont rendus les scientifiques.Entre où en est la science et où nous en sommes, nous, au niveau socio-politique, le décalage est au mieux de 20 ans.Ouvrez le journal, vous verrez.— Vous trouvez que cela n'avance pas assez vite?Pourtant, Alvin Toffler, dans Le Choc du futur soutient que les hommes sont malades du progrès.— C'est que la science ne peut encore rien pour régler les problèmes sociaux.Il va quand même arriver un moment où l'on va pouvoir régler les problèmes de la société.Prenez la question des conflits patron-ouvriers.Ce problème social que l'on trame encore aurait dû être réglé depuis longtemps.Et voilà qu'on va manipuler le matériel génétique des hommes.Pourtant, il va falloir s'occuper de l'homme.Ou cela va déboucher, ou cela va éclater.— Est-ce que cela signifie que vous vous intéressez à la science seulement en autant qu'elle touche directement l'homme?— Absolument pas.Je n'ai pas uniquement des préoccupations d'ordre spirituel.Je crois que celui qui inventera la voiture électrique aura apporté beaucoup à l'humanité.Il y a beaucoup de choses à faire en science qui sont uniquement d'ordre technologique, une nouvelle forme d'énergie, par exemple.Vous allez dire qu'il y a contradiction entre l'importance que j'attache au prolongement de la science dans le mysticisme et la voiture électrique.En fait, cette contradiction est en nous-mêmes.Selon certains travaux récents, le lobe gauche de notre cerveau serait le siège des préoccupations d'ordre matériel ou scientifique, si vous voulez.Le lobe droit, lui, serait plutôt le site des préoccupations mystiques.Il faut réussir à marier en nous-mêmes ces deux tendances.Elles sont analogues à l'opposition que l'on fait entre la civilisation orientale qui attache la priorité à la vie intérieure et la civilisation occidentale qui cherche à changer le monde matériel qui nous entoure.Cette opposition existe en dedans de nous-mêmes.Les Chinois l'ont symbolisée par le «yang» et le «yin».On ne peut résister à l'analogie.Le «yang» est orienté vers l'extérieur.Il est agressif.Il conduit au monde technologique.C'est le lobe gauche, celui dont l'influence prédomine dans le monde occidental.De son côté, le «yin» est tourné vers l'intérieur.Il représente plutôt les préoccupations mystiques.C'est le lobe droit, celui dont l'influence est la plus grande dans le monde oriental.Ainsi, le grand mariage entre l'Est et l'Ouest doit d'abord s'effectuer en chacun de nous.Radio-Canada Voilà pourquoi j'essaie de faire le pont entre les scientifiques et les hommes de lettre.La science elle-même se dirige d'ailleurs en ce sens.La rencontre de la médecine occidentale et de l'acupuncture ne marque que le début de ce rapprochement.On va vers plus de communication entre les hommes.Satellites, télécommunications, téléconférences, télécâbles, télévision, tout cela va nous aider à construire une communauté humaine plus riche en contacts.C'est dans ce sens que je veux faire ma part.• (Propos recueillis par Jean-Marc Fleury) LA SCIENCE ET LES HOMMES / 31 il LE POUVOIR SCIENTIFIQUE ; CHANGE DE MAINS ittacta ^ civifa ¦ injtrll : Ilf iSMJJil I (ésisic m II letlii»' lui don! ràoc- (ersl'in-; droit, junde Siind date ' J |S 151 f**! ¥ 36/ ÉNERGIE t> mm- HYDROCARBURES VAPORISÉS CHARBON PULVÉRISÉ FILTRE ÉPURATEUR GAZ DE SYNTHÈSE GAZ RECYCLE GAZ CHAUD GAZ SURCHAUFFÉ CHARBON REFROIDISSEMENT RÉCUPÉRATION DES PRODUITS FILTRATION HYDROGÈNE 320 C 455 C 540 C 820 C CCHARBON RÉACTEURS A LIT FLUIDISÉ RÉSIDU DE CARBONISATION (60% DU POIDS DU CHARBON) OXYGENE VAPEUR D’EAU GAZ CHAUD UTILISÉ POUR ».LA FLUIDISATION HYDROGÉNATION EN RÉACTEUR CATALYTIQUE « PÉTROLE DE SYNTHÈSE ! viennent ment: le c |tiedecari combiner pquide.Car I ensr mentl'by ;¦ que élevé mentàu ¦decombu [logiedef ’maîtrisée La seule installation pilote pour la production de pétrole synthétique fonctionnant aux États-Unis utilise le procédé mis au point par la firme F MC.Dans ce procédé, on a combiné d'une nouvelle façon presque toutes les techniques fondamentales de la conversion du charbon.Le charbon pulvérisé passe dans quatre réacteurs de plus en plus chauds.Ce qui sort des réacteurs est un mélange d’hydrocarbures vaporisés qui sont refroidis et divisés en deux courants.L'un d’eux est un gaz à pouvoir calorifique moyen qui est épuré et emmagasiné en vue de son utilisation.L'autre est un mélange de fractions pétrolières qui sont hydrogénées —par de l'hydrogène venant du filtre épurateur— pour être transformées en pétrole brut.Le résidu carbonisé est retiré du dernier réacteur et réutilisé.A APRÈS MANHATTAN ET APOLLO Le magazine Scientific American estime pour sa part (janvier 1974) que «l'appel du président Nixon en faveur d'une autonomie énergétique des États-Unis en 1980 ne peut pas être considéré comme réaliste».La prestigieuse revue reconnaft pourtant que «d'ici au début de la prochaine décennie, nou?avons le temps de développer des méthodes, acceptables du point de vue de leur impact sur l'environnement, pour fabriquer de l'huile à partir du charbon et peut-être même à partir des schistes bitumineux, à moins de sept dollars le baril.Simultanément, les programmes actuellement à l'étude fourniront sans doute du gaz synthétique extrait du charbon à environ 3 cents le mètre cube.» Ceci compte tenu du fait que les États-Unis possèdent environ 1 600 milliards de tonnes de charbon facilement exploitable, c'est-à-dire plus de 20 fois la quantité totale d'énergie dont nos voisins du sud auront besoin d'ici à 1990! Mais, avertit Scientific American, la stratégie nécessaire pour transformer cette invraisemblable quantité de charbon en hydrocarbures synthétiques est à la fois complexe et coûteuse: «La construction des installations permettant de produire quotidiennement 5 millions de barils (peut-être 1/3 des importations projetées en 1985) exigera un investissement de 40 milliards de dollars, soit l'équivalent de l'aventure spatiale des années soixante.» Les Américains sont donc prévenus: cette nouvelle aventure, beaucoup moins exaltante sans doute que le débarquement lunaire, mais à l'impact économique radicalement différent, coûtera aussi cher que la précédente.Sont-ils prêts à consentir l'effort nécessaire?Le magazine Fortune fait pour sa part appel à une comparaison plus ancienne mais également frappante: «Sa concentration en un laps de temps très court rend le programme de conversion du charbon équivalent, par son ampleur et par les investissements nécessaires, à celui qui a permis la mise au point de la première bombe atomique.» Après Manhattan et Apollo, voici donc un nouveau défi à la mesure du peuple américain! Lequel n'est d'ailleurs pas le seul à s'intéresser à la question, même si aucun autre pays ne dispose, en aussi grandes quantités de charbons aussi facilement exploitables: en Afrique du Sud, la SASOL (South African Coal, Oil and Gas Corporation) fait fonctionner deux usines qui produisent des hydrocarbures synthétiques à partir de charbon.GARDONS-NOUS DE TOUT OPTIMISME EXAGÉRÉ L'une de ces usines est conçue selon un procédé allemand, l'autre selon un procédé américain.D'autre part, ce pays transforme en huile, dans une usine inaugurée en 1955, les houilles de mauvaise qualité d'un gisement situé à soixante-dix kilomètres au sud de Johannesbourg.Ces installations semblent donner satisfaction, mais il est vrai que l'Afrique du Sud qui, pour des raisons politiques assez limpides, ne pouvait guère compter sur la sympathie des pays arabes, a dû très tôt consentir des investissements considérables pour satisfaire avec les moyens du bord ses besoins en pétrole.Le royaume de l'apartheid n'a donc pas été pris au dépourvu par une crise de l'énergie connue là-bas depuis longtemps, mais M.P.E.Rousseau, président de la Sasol, déclarait à la fin de 1971 : «Gardons-nous de tout optimisme exagéré au sujet de l'avenir des procédés fournissant de l'huile à partir du charbon.Le problème essentiel demeure l'énormité des coûts impliqués; c'est une préoccupation de tous les instants pour nos propres équipes de chercheurs et pour toutes celles qui se penchent sur la liquéfaction du charbon à travers le monde».Même synthétique, le pétrole coûte cher, c'est bien connu! Ceci n'empêche cependant pas des nations peu fortunées, comme l’URSS et même l’Inde, d'avoir leurs usines de gaz de houille.Il est toutefois permis de supposer que les procédés exploités s'apparentent davantage aux vieilles cokeries européennes qu'à la fabrication de véritable pétrole synthétique.Toutefois, certains charbons russes sont exploités d'une façon particulièrement élégante et prometteuse, par gazéification «in situ».C'est-à-dire qu'au lieu d'envoyer des mineurs chercher le minéral sous terre, celui-ci est directement traité depuis la surface, et remonté sous forme de gaz combustible, par l'intermédiaire d'un réseau de tubes.On peut de cette façon tirer parti des gisements trop profonds pour être accessibles par les méthodes conventionnelles.Avec l'avantage supplémentaire que le grisou (méthane libre souvent présent dans les couches profondes de houille), représente alors non plus un danger comme dans l'exploitation minière traditionnelle, mais un atout supplémentaire: excellent combustible, il enrichit le mélange gazeux récupéré.uiiÊ sorte it etatai dfipe.fliydtoÿ donc, mi te ttdir caikwp teat pie» Et donnift: de houft j tantm techim ainsi au* puidéti soutes tf ttanstoirp d'une tel) Imentit L'Office s'elfotce L'objectif s S' chan^i toutes Iç; [f, 95 est ‘heme Mi.Si ttanunjj Pot» éM ou si* seul “o* sotte téinfi,;.j ,"sPu ÉNERGIE / 37 ENTRE LA HOUILLE ET L'HYDROGENE Dans tous les cas, le principe fondamental des transformations chimiques qui interviennent peut se schématiser très simplement: le charbon est formé en grande partie de carbone, et le but recherché est de combiner à ce carbone l'hydrogène qui en fera un gaz combustible ou hydrocarbure liquide.Car l'énergie chimique idéale, c'est assurément l'hydrogène, gaz au pouvoir calorifique élevé, susceptible de se prêter directement à une gamme extrêmement vaste d'emplois, et ne laissant pour tout résidu de combustion que.de l'eau! La technologie de l'hydrogène n'est pas entièrement maîtrisée, et on peut considérer les hydrocarbures (pétrole et gaz naturel) comme une sorte d'étape, de compromis provisoire et avantageux entre le charbon et l'hydrogène.Faute d'hydrocarbures naturels, l'hydrogénation du charbon représente donc, même sur le plan de la «philosophie de l'énergie», une évolution logique.Mais il y a loin des principes à la réalité technologique: loin de se composer de carbone pur, la houille est en fait un mélange à la fois très variable et très complexe.Et tel procédé de transformation donnant entière satisfaction avec un type de houille peut fort bien s'avérer inopérant avec une autre variété.Des paramètres chimiques très rigides se superposent ainsi aux caractéristiques morphologiques du gisement (dimensions, profondeur, etc) qui déterminent le coût d'exploitation.Ajoutez les fluctuations du cours des sources d'énergie concurrentes, qui décident également de la rentabilité de la transformation: on conçoit que la solution d'une telle équation ne se laisse pas aisément découvrir.L'Office of Coal Research des États-Unis s'efforce néanmoins d'y parvenir en mettant depuis peu les bouchées doubles.L'objectif primordial est la fabrication d'un gaz synthétique complètement interchangeable avec le gaz naturel; parmi toutes les réserves de combustibles fossiles, le gaz est en effet le moins abondant, et l'épuisement risque donc de commencer par lui.Sur quelque sept cents projets examinés, une quarantaine ont été retenus pour étude au niveau du laboratoire.Cinq ou six seulement ont franchi, ou se préparent à franchir le cap de l'usine pilote, une sorte de «modèle réduit» à la capacité inférieure de deux cents fois celle de la véritable installation commerciale visée.Notons qu'un tel «modèle réduit» coûte de 15 à 30 millions de dollars; le «jouet» n'est donc pas à la portée de toutes les bourses.Or il s'avère extrêmement difficile de dépister les procédés susceptibles de ne pas décevoir en passant du stade laboratoire au stade usine pilote.Enfin, la certitude définitive, quant à la rentabilité d'un procédé, ne pourra être acquise qu'après la construction de la véritable usine grandeur nature, au coût, disons, de 300 millions de dollars.On conçoit donc sans peine que les industriels ne prennent pas de tels risques à la légère.ASSURER LA RELÈVE DU MÉTHANE Une première firme a annoncé son intention de se lancer dans une telle aventure: «El Paso Natural Gas Co.»; les autorisations nécessaires ont été obtenues de la Commission fédérale de l'énergie dès novembre 1972.L'usine, une fois complètement achevée, en 1978, transformera quotidiennement 20 700 tonnes de charbon en 9 millions de mètres cubes de gaz de «qualité pipeline», c'est-à-dire du méthane presque pur.Avec un coût total de 353 millions de dollars, l'installation livrera le gaz au prix de 3 cents le mètre cube.Le site retenu se trouve au nord-ouest du Nouveau-Mexique, à proximité immédiate d'un très important gisement de houille appartenant à la même compagnie «El Paso».Quant au procédé employé, il s'agit du vieux système allemand Lurgi sérieusement remis au goût du jour pour fournir un combustible de haute valeur calorifique.Une partie du charbon est brûlée (pour obtenir la température nécessaire à la transformation de l'autre partie par la vapeur d'eau), non plus avec de l'air, mais avec de l'oxygène pur.On évite ainsi de diluer inutilement le produit final avec l'azote atmosphérique qui en abaisserait beaucoup le pouvoir thermique.Les impuretés (sulfure d'hydrogène et gaz carbonique notamment) sont éliminées par purification subséquente.L'annonce de ce plan ambitieux constitue une première mondiale, et les autres projets n'ont pas dépassé le stade expérimental.Parmi les plus avancés, il faut signaler le système «synthane» mis de l'avant par le Bureau of Mines a l'aide d'une installation pilote en voie d'achèvement qui traitera, à Bruceton, Pennsylvanie, 75 tonnes de houille par jour.Le procédé, dit à «lits fluidisés» (les gaz volatiles du charbon sont éliminés dans un premier temps, et le résidu gazéifié ensuite) semble très intéressant: dans l'état actuel des connaissances, il est celui fournissant, pour une même quantité de houille, la plus grande quantité de méthane.Si l'usine pilote donne satisfaction, elle sera suivie d'une installation industrielle produisant quotidiennement 9 millions de mètres cubes de gaz avec seulement 15 000 tonnes de combustible (au lieu de 20 700 dans l'usine de la compagnie El Paso).Toujours en vue de synthétiser un gaz de «qualité pipeline», et au niveau de l'usine pilote, l'American Gas Association's Institute of Gas Technology a mis en marche dès 1971 une installation à Chicago; le > MACHINE À GAZ — A partir de la seconde moitié du XIXème siècle, à Québec, on fabriquait du «gaz à l'eau carburé» dans ces cylindres de métal.Le gaz, à faible pouvoir calorifique, était produit en soufflant de la vapeur d'eau et de l'huile à travers un Ht de coke incadescent.?LA PREMIÈRE ÉPOQUE DU GAZ DE CHARBON — Construite à Québec, au tout début du siècle, cette usine à gaz a été la dernière en Amérique du Nord à cesser ses opérations, le mois dernier.?i 1 J.-B-i- *y‘r* ’ mm ¦ISS' 38/ ÉNERGIE ^procédé employé (lit fluidisé à trois couches) est connu sous le nom de «Hygas».Autre firme, autre procédé, le «C02 Acceptor» de Consolidation Coal Co., à Rapid City, Dakota du Sud, se distingue par sa façon d'éliminer le dioxyde de carbone indésirable.Enfin, le système «Bi-Gas» de Bitouminous Coal Research, doit entrer incessamment en opération à Homer City, Pennsylvanie; au lieu de lits fluidisés, il fait appel à une circulation par cyclone du charbon pulvérisé.Il reste donc à souhaiter que, de tous ces procédés, le meilleur l'emporte, pour prendre la relève du méthane risquant de faire défaut aux pipe-lines américains.m ¦X PROPRE, PAUVRE ET BON MARCHÉ U/V GAZ 4 NETTOYER - Le gaz à l'eau carburé contenait beaucoup d'impuretés à sa sortie des surchauffeurs.On le faisait circuler dans ces boites remplies de copeaux de bois mêlés à de T oxyde de fer pour le débarrasser de son soufre.T Second chapitre prometteur, quoique moins avancé encore, de la gazéification de la houille: l'obtention d'un gaz de bas pouvoir calorifique, mais bon marché, susceptible d'alimenter adéquatement les centrales thermo-électriques.Une fois de plus, nécessité fait loi: afin de limiter la pollution de l'air, on a de plus en plus tendance à utiliser exclusivement dans les centrales, des combustibles (charbon ou fuel) sélectionnés pour leur faible teneur en soufre.La pénurie fait d'une telle exigence un luxe en passe de devenir inabordable.Mais un gaz purifié extrait du charbon serait de nature à actionner les générateurs électriques à la satisfaction générale.Heureuse coincidence, les turbines à gaz ont connu récemment des progrès décisifs, et les fabricants travaillent à la mise au point de modèles fonctionnant à haute température et capables de transformer un gaz pauvre en électricité.Ces turbines peuvent être jumelées à un système plus conventionnel à vapeur, chauffé avec les gaz d'échappement: l'ensemble conduit à un rendement de 50 à 60%, au lieu de 40% dans les centrales thermiques-normales.Reste à produire ce gaz de charbon propre, pauvre et bon marché.Le Bureau of Mines, s'attaquant au problème entre 1948 et 1958, avait alors formulé un verdict de non-rentabilité.Il s'est, depuis ravisé, compte tenu de la nouvelle physionomie du marché pétrolier et des progrès technologiques intervenus: il produit, depuis 10 mois, 100 000 mètres cubes de gaz chaque jour dans une installation expérimentale située à Hanna, Wyoming.Le pouvoir calorifique de ce gaz est très médiocre (il contient 55% d'azote et 15% de bioxyde de carbone, tous deux incombustibles!) mais son prix de revient l'est tout autant.Un projet du même genre est prévu dans les profonds gisements houillers des Appa-laches, avec une gazéification intervenant directement sous terre.De son côté l'Office of Coal Research a récemment passé de nombreux contrats avec des firmes intéressées par la production d'électricité, et, même si la phase vraiment commerciale ne risque guère d'être atteinte avant les années 1980, les industriels se montrent fort empressés vis-à-vis de cette nouvelle utilisation du charbon.Mais, .l'essence?Car, pour le «citoyen ordinaire» comme vous et moi, les hydrocarbures, c'est avant tout le carburant de nos automobiles.Quand ce carburant viendra-t-il de la houille?Toutes les hypothèses sont permises: Exxon cherche à obtenir la participation du gouvernement américain pour développer un projet ultra-secret de carburant synthétique.Depuis une dizaine d'années, la plupart des grosses compagnies pétrolières se sont discrètement assuré le contrôle de vastes gisements houillers.Hasard.ou flair?Mais l'industrie laissait entendre il n'y a pas longtemps que les recherches sur l'«essence de charbon» constituaient un investissement à fonds perdus, une folie ruineuse et inutile, tout juste bonne à faire pression sur les pays producteurs de pétrole pour les inciter à la modération dans leurs hausses de prix.Résultat de cette incrédulité réelle ou feinte: l'Office of Coal Research, que ses statuts limitent à des recherches conjointes avec l'industrie, n'a eu que deux occasions d'œuvrer dans ce domaine.La première se solda en 1970 par un fiasco de 18 millions de dollars.La seconde, commanditée par EMC Corp.à Princeton, New Jersey, depuis 1970, paraft donner satisfaction en dépit de sa modestie et d'un rendement faible (un ou deux barils par tonne de charbon); on songe même à une implantation de dimension commerciale vers 1976.Le Bureau of Mines, de son côté, met en œuvre sur une très petite échelle son procédé «Synthoil», qui consiste à opérer une hydrogénation catalytique de la houille sous l'effet de pastilles d'alumine renfermant du cobalt et du molybdène.Le résultat est un peu meilleur: 3 barils d'huile par tonne d'un charbon de mauvaise qualité.Bref, les grandes compagnies pétrolières ne manifestent jusqu'à ce jour aucun délire excessif dans cette direction.Ce qui n'empêche pas l'armée américaine de mettre en route un programme visant à s'assurer que 10% de ses besoins en carburant seront, en 1980, satisfaits à partir du charbon.Il en coûtera 9 milliards de dollars, ce qui semble donner raison à Lawrence Lessing: «Il n'existe aucun moyen de se tirer à bon compte de l'impasse actuelle».• La Recherche a des lecteurs dans 78 pays.Il doit bien y avoir une raison.Si La erche a des lecteurs dans 78 pays, si les articles qu’elle publie sont répertoriés dans tous les grands périodiques bibliographiques mondiaux, si, en bref, La Recherche a une audience internationale, c'est d’abord parce que son contenu est international : dans ses sommaires, des chercheurs du monde entier se donnent rendez-vous.La Recherche est une revue interdisciplinaire destinée aux scientifiques.Interdisciplinaire, elle fait le point des activités de recherche dans tous les domaines, de la biologie moléculaire à l’astrophysique ou à l’informatique.Destinée à des scientifiques, La Recherche est donc rédigée aussi par des scientifiques, français et étrangers, qui font l’effort de décrire clairement, pour des collègues appartenant à d’autres spécialités, leurs expériences, leurs hypothèses et leurs résultats.Grâce à une équipe permanente de rédacteurs qui ont tous une expérience de la recherche en laboratoire, grâce à ses cinquante correspondants, La Recherche est souvent informée la première de tous les développements scientifiques importants.Ce n’est pas tout.Il y a des revues qui publient le genre d’articles qu’on se promet de lire.le jour où l’on aura le temps.Refusant de confondre le sérieux et l’ennui, nous avons décidé, nous, de faire de La Recherche une revue qu’on lit même quand on n’a pas le temps.Et c’est sans doute pour cette raison-là que La Recherche a des lecteurs dans 78 pays.OFFRE GRATUITE Veuillez m’envoyer, sans engagement de ma part, numéro spécimen de La Recherche NOM ADRESSE VILLE à retourner à C/3 PERIODICA INC., 7045 avenue du Parc, Montréal 303, Que.< TECHNOLOGIE AU COEUR D'UNE VALVE UN MILLION DE CHANDELLES EN POCHE Grâce aux ordinateurs, de meilleures valves cardiaques seront bientôt disponibles.En effet, les ordinateurs permettent déjà de visualiser la circulation du sang et même de «visiter» une valve en opération.Au cours des dix dernières années, et aux États-Unis seulement, on a remplacé les valves cardiaques défectueuses de près de 80 000 personnes par des valves artificielles.Cependant, la prothèse est loin de posséder toutes les qualités de la valve cardiaque naturelle.Ainsi, ses porteurs voient leur chance de survie prolongée de seulement 2 ans, dans 50 pour cent des cas.Des scientifiques de l'Université de l'Utah se sont donc attaqués à la mise au point d'une nouvelle valve artificielle.Par l'utilisation d'ordinateurs, ils visualisent le flux sanguin et modifient la forme et les dimensions de la valve, dans le but d'en optimiser l'efficacité.Anciennement, les vérifications ne pouvaient se faire que par l'introduction d'une teinture dans le liquide simulant le sang.Mais à mesure que cette teinture se répandait dans le sang, et à cause des mouvements de pulsation, il devenait rapidement impossible de suivre avec précision les mouvements du fluide.L'atout majeur des modèles esquissés par les ordinateurs est la possibilité de modifier à volonté la géométrie de la valve.Par exemple, si un caillot apparaft à cause de la stagnation du sang, l'expérimentateur peut immédiatement modifier le dessin de la valve pour corriger le défaut.Jusqu'à présent, les résultats de ces travaux n'ont pas encore été appliqués directement, mais il semble que dans un pioche avenir, les méthodes graphiques des ordinateurs serviront à éliminer les valves défectueuses et de mauvaise conception.La nouvelle méthode de vérification permettra à un expérimentateur de se «placer» dans une valve et de la parcourir pour en déceler les points faibles.Une «baguette» électronique permet à l'observateur d'atteindre et de «toucher» les parties reproduites sur l'écran de l'ordinateur pour en modifier la forme.De cette façon, le chercheur peut redessiner la valve de l'intérieur même.La méthode lui permet aussi de constater immédiatement le succès ou l'échec de son intervention.Après tout, la circulation sanguine mérite aussi qu'on s'y attarde.• Une nouvelle lampe de poche, la plus puissante fabriquée à ce jour, vient d'être mise au point à la suite de travaux effectués par la Nasa, il y a environ cinq ans.Son faisceau brille 50 fois plus que celui d'un phare automobile conventionnel.Le pinceau lumineux provient d'une lampe au xénon originale garantie pour 200 heures d'intensité maximum.Autre avantage non négligeable, le puissant jet de lumière est particulièrement apte à pénétrer la brume ou la fumée puisque ses rayons sont peu réfléchis vers l'arrière.La lampe ne requiert que 12 volts, obtenus, soit d'une pile portative, soit de la prise du briquet d'une automobile.Son seul défaut, elle coûte 400 dollars.• DES ROBOTS - GRENOUILLES Une nouvelle génération de robots qui pourront explorer les fonds marins à de grandes profondeurs, vient de voir le jour.Ces robots devraient permettre de localiser, entre autres, les bancs de poissons, de même que d'autres ressources sous-mari-nes importantes.Les RUFAS (sigle de Remote Underwater Fisheries Assesment System) sont remorqués par un bateau de reconnaissance, et peuvent plonger jusqu'à une profondeur d'environ 800 mètres.Ils possèdent des «yeux» orientables dans toutes les directions.De plus, munis de caméras vidéo-scopiques, ils peuvent filmer la faune aquatique et retransmettre continuellement aux chercheurs du navire les images des fonds marins.Un système radar contrôle automatiquement le «vol» aquatique du RUFAS et lui permet d'éviter les obstacles qui jonchent le fond des mers.Les Français mènent, parallèlement aux Américains, des sondages des fonds marins, grâce à un «confrère» de RUFAS.Le robot français, SOL—100, est, pour sa part, principalement voué à la recherche de pétrole.Ces explorateurs nouveau genre, tout en faisant progresser la science de l'océanographie, devraient être en mesure de compléter l'inventaire des importantes ressources de nos océans.• Cette photo illustre le larguage de l'amphibien français SOL-IOO.Grâce à cette sonde sous-marine, les chercheurs de l'Institut français du pétrole, mènent actuellement d'intensives recherches pour trouver de l'or noir sous la mer.?•aesm, TECHNOLOGIE / 41 l\l CG Co a plus p« II(É tués us.Son lui fa l Want (200 ulrtmit jet de eàpéne ueses airière.llsfote it de la I ile.Son j IS.I UN FAUTEUIL ACCELERATEUR DE PIETONS Un nouveau mode de transport sur courte distance a été installé à titre expérimental à la station Défense du Réseau-Express-Régional de la région parisienne.Les passagers prennent place à bord de petits véhicules en forme de banquette qui se déplacent à la vitesse d'un trottoir roulant classique (environ 1 kilomètre à l'heure).Ces «véhicules-fauteuils» sont ensuite accélérés jusqu'à la vitesse de 16 kilomètres à l'heure, ils parcourent 200 mètres, puis sont ralentis à leur vitesse de départ pour permettre la sortie des passagers.L'entrafnement des véhicules se fait par l'intermédiaire d'une chafne de convoyeur, mue par un moteur électrique linéaire.C'est la première expérience en vraie grandeur en matière de transport continu et elle sert de test auprès des usagers.Cette réalisation résulte d'une collaboration du District de la région parisienne, du Ministère des Transports et de la société Cytec.Ce nouveau moyen de transport, qui s'inspire du principe régissant le fonctionnement des télé-cabines des stations de sports d'hiver, pourrait remplacer avantageusement les trottoirs roulants sur longue distance en usage notamment dans les aéroports.En effet, ceux-ci ont une vitesse limitée afin d'autoriser l'accès direct et de permettre la station debout.Le système «VEC» présente l'intérêt de combiner les avantages respectifs des moyens de transport tant collectifs qu'individuels, ainsi que de ceux à accès continu.• sciences&avenr scenes *0* asms avenir Une revue qui tous les mois accueille de nouveaux abonnés Dossier di lfno's -tes glacier sciences LA CONNAISSEZ-VOUS?Nous vous offrons un numéro gratuit Complétez ce coupon ________________________________________ Veuillez me faire parvenir sans NOM engagement de ma part un nu- ________________________________________ méro gratuit de la revue SCI EN CE & AVEN IR et de la docu- ________________________________________ mentation gratuite concernant: ADRESSE Retournez-le à bordas-dunod montréal inc 8011 est Jarry - Ville d'Anjou - Qué.- HU 1H6 Diffuseur de 11 fonds d'édition scientifiques de la vulgarisation scientifique au livre de recherche biologie — astronomie — environnement — chimie — physique — médecine — génie civil — génie industriel — architecture — urbanisme — économie — psychologie 42/ TECHNOLOGIE sans salaire et sac Ce sont les bactéries qui, depuis deux milliards cinq cent millions d'années, ont formé la plupart des minerais connus.De là à utiliser leurs services pour extraire ce même minerai, il n'y avait qu'un pas, bientôt franchi.Pour une fois, le chômage ne sera pas provoqué par l'automation.par Jean-Marc Fleury Au premier abord, le monde vivant et le domaine minéral semblent bien étrangers l'un à l'autre.À part les vertus des eaux minérales sur notre estomac, les contacts intimes entre les roches et les humains sont rares.Il n'y a que les irruptions des volcans, les secousses des tremblements de terre et la patiente action des agents atmosphériques qui paraissent en mesure de modifier la matière minérale de façon importante.Pourtant, au cours des ères géologiques, des êtres microscopiques qui doivent se mettre à plus de 500 pour former une chafne d'un millimètre, ont littéralement déplacé des montagnes: ils avaient pour eux le temps et le nombre.Premiers organismes vivants à apparaftre sur terre il y a environ 2 500 000 000 ans, on les trouve aujourd'hui partout et parfois entassés par miljions de millions par centimètre cube.A toutes les heures, chacun d'eux se dédouble en deux nouveaux microorganismes, identiques au premier.Ils ne connaissent ni la fatigue ni la vieillesse.Ce sont les microbes.En dépit de leur mauvaise réputation, il ne faut pas oublier qu'on leur doit tout de même la pénicilline, le yogourt et la bière.De plus en plus, l'industrie alimentaire et pharmaceutique leur fait produire ou transformer des substances.Devant tant d'ardeur, fatalement, les géologues devaient se demander un jour si les microbes n'étaient pas responsables de certains processus géologiques.L'eau, le milieu essentiel à leur développement, ne s'infil-tre-t-elle pas partout?Et, de ces microbes, n'en trouve-t-on pas dans les fosses les plus profondes du Pacifique, à 400 mètres sous terre et dans l'eau bouillante et sulfureuse des geysers?En fait, leur masse représente 25 fois la masse totale de toute vie aquatique et terrestre.Dans la biosphère, ils occupent tellement de place qu'ils sont responsables de la plupart des changements chimiques que la vie produit sur cette planète.Cela devait arriver, tout comme pour le pétrole, le gaz et le charbon, la biogénèse des dépôts de soufre et de minerais métallifères a été confirmée.Il y a même des indices qui permettent de croire qu'on doit à certains microbes les fameux nodules de manganèse que l'on trouve en grande quantité au fond des mers.Une nouvelle branche de la géologie a vu le jour, la géomicrobiologie.En très peu de temps on a aussi songé à utiliser les microbes pour extraire les minerais qu'ils avaient formés, et la «biométallurgie» occupe maintenant une place dans tous les centres de recherches minérales.NOS ANCÊTRES LES MICROBES Dans la classification des biologistes, les microbes font partie du règne des protistes, c'est-à-dire «les tout premiers».Il y a au delà de 2 000 000 000 d'années, les microbes régnaient déjà sur terre.(Les premiers hominidés sont apparus il y a environ 600 000 ans).À cette époque, l'atmosphère ne contenait pas d'oxygène.Elle était surtout formée de méthane, d'ammoniac et d'hydrogène.Dans cette atmosphère vivaient \es anaérobes, des organismes qui peuvent vivre en l'absence de l'air tel qu'on le connaft aujourd'hui, donc sans oxygène.Dans cet environnement disparu abondaient plusieurs espèces de bactéries dont le métabolisme s'appuyait sur le soufre.On a appelé thiobaciHus ces bactéries bouffeuses de soufre, thio signifiant «soufre», en grec, et bacillus: en forme de «bâtonnets», en latin.Les thioba-cilles ne transformaient pas tous le soufre de la même façon, mais les produits sulfurés des uns pouvaient être utilisés par les autres.De cette façon, les bactéries se passaient les atomes de soufre dans un cycle fermé.La majeure partie de l'activité vitale terrestre était basée sur le cycle du soufre.C'était le système écologique de ce temps-là.Mais, il y a 800 000 000 d'années, commença le déclin du sulfuretum planétaire.Un thiobacille avait trahi ses frères.Il produisait de l'oxygène.Pendant 300 000 000 ans ce thiobacille coloré —il contenait de la chlorophylle, cette substance verte essentielle à la photosynthèse-devait lentement affamer les thiobacilles anaérobes.En effet, l'oxygène, anciennement emprisonné dans l'eau (H2 O), se mit à remplacer le soufre dans la plupart des composés du sulfuretum.Il y a donc 500 000 000 d'années, les premiers thiobacilles furent chassés de la surface terrestre.Ils se réfugièrent dans le fond des marais et sous terre, partout où la «pollution» oxygénée ne pouvait les atteindre.Le grand sulfuretum planétaire se fractionna en une multitude de sultureta (pluriel de sulfuretum) enfouis sous terre et sous les eaux stagnantes.Pourtant, leur rôle n'était pas terminé.A l'abri de la nouvelle atmosphère «empoisonnée», ils entreprirent une œuvre souterraine et sous-marine à laquelle notre civilisation industrielle doit beaucoup.Les irréductibles thiobacilles générèrent d'immenses dépôts de soufre, de sulfures métallifères, de soude (NaaCOs) et d'uranium, le carburant des centrales nucléaires.Plus tard, au temps des dinosaures, il y a 200 000 000 d'années, leur activité fut particulièrement intense.Dans cette période géologique chaude et ensoleillée, l'eau s'évaporait rapidement de plusieurs bassins océaniques peu profonds.Les dé- biisopi crétieoti! bits à la pi bcs, gnri fetus mienttou K1 ¦ : firttî.I fee; ogc - i I fe;:/; I iLobf,E) | Wf ;; 1 lltCOi,.;.I ¦ " , ] Ms.Or île:.; I M:-^.] I jSll,tttr( 1 !!%j| 1 ^ Or J s syndicat yilisollt bris organiques de la faune condamnée créèrent des milieux extrêmement favora-ÏIRS! blés à la prolifération des microbes aéro-Msncj Ibes, grands consommateurs d'oxygène.Mais en se multipliant, ceux-ci consom-ct'dtdo maient tout l'oxygène du milieu.Les ff8® Ithiobacilles anaérobes purent donc se développer en grand nombre dans des r mers transformées en de gigantesques sul-» lfureta.giÉaiit I .(Dans ce milieu se trouvait du plâtre ou __ t sulfate de calcium (CaSCU ) en grande r.olotHl quantité.Les micro-organismes amorcè-esulis- s rent le cycle du soufre en transformant le yétsHlsulfate en sulfure de calcium (CaS).Ce ’ 1 composé était ensuite repris par le thioba- i cille coloré qui remplaçait le soufre du i calcium par le groupe CO3.On obtenait finalement un précipité insoluble de carbonate de calcium (CaC03) et de soufre pur.Ces deux substances s'accumulaient sur place et le soufre demeurait à l'état pur parce qu'il n'y avait pas d'air présent pour l'oxyder.(«»*¦ it mit aittlfi ont (ithio-«ter-«dite tindre.foc- ¦etaipl»' [gffS fit DES MONTAGNES DE SOUFRE Mais comment peut-on affirmer que des bactéries aient accumulé des montagnes |de soufre?La preuve, c'est un savant canadien, le Pr H.Thode, qui l'a fournie en découvrant que l'action bactérienne dis-|:créminait les isotopes du soufre.Car les atomes de soufre n'ont pas tous le même ! poids.Certains ont le poids atomique 34 et d'autres le poids atomique 32.Dans r.1 un composé de soufre tiré d'une roche qui "'.’.s 1' s'est formée bien avant que la vie apparais-|C Ise sur terre, il y a environ deux pour cent lly) 4 de plus d'atomes lourds que d'atomes légers.Or, dans les sites que l'on soupçon-» Ine d'activité bactérienne, ainsi que dans ¦ "les sulfureta de laboratoire, on constate un léger déplacement en faveur de l'isotope léger chez les sulfures formés, tandis > Ministère des Richesses naturelles ./ * '•'A - -'1 l'f'.'+i zi* ?- "Q Vi » / «/ - » .V .'/ f •-»* X.» -?_ .- V L/Y i, |T- ïr ^y y - v; / '^K ïc; -, v—>¦ " r ^ '•W'’.'-, C Y 'f' A^V _ r/'' ^ .* ?X *• ^ T' / i I -V, y Y > ' L/A/ DL/ft TRAVAILLEUR — On reconnaît facilement la forme en bâtonnet de Thiobacillus ferrooxidans.H mesure environ 1,5 micron (millième de millimètre) de longueur et 0,5 micron de largeur.?Ministère des Richesses naturelles >que les sulfates résiduels sont plus riches en isotope lourd.On retrouve ce même biais isotopique dans des lacs de Libye, en Afrique du Nord, authentiques sulfureta en action, qui produisent individuellement une centaine de tonnes de soufre par année.Par contre, on n'a pas encore noté de déplacement isotopique chez le soufre même, sauf que des chercheurs russes ont démontré que 80 pour cent du soufre des Carpates avait été produit par un thiobacille.Les microbiologistes, en tout cas, ne peuvent croire que le passage des sulfures au soufre pur ne soit pas attribuable à un thiobacille, et plus particulièrement au thiobacille coloré.En effet, par une heureuse symbiose, le gaz carbonique produit par ce dernier aurait servi à construire les composés organiques dans lesquels le premier thiobacille aurait puisé son énergie.Par ailleurs, les eaux terrestres charrient parfois du fer, du cuivre, du zinc, du plomb et du cadmium en solution.De son côté, une partie du sulfure de calcium produit par le thiobacille devient de l'hydrogène sulfuré (H2S) lorsqu'il réagit avec le gaz carbonique (C02 ) produit par la respiration du microbe.Un sulfuretum se trahit souvent par la production de ce H2S à l'insupportable odeur d'oeufs pourris.Comme nous l'avons vu tout à l'heure, le calcium échange son groupe SO4 pour un groupe CO3, passant de l'état de sulphate à celui de carbonate.Par contre, si le sulphate de départ est un sulfate de sodium (NaS04 ), le produit final devient du carbonate de sodium (NaC03), ou soude, largement utilisé dans la fabrication du verre, du savon, de peintures, de médicaments et d'émaux.Encore une fois, les bactéries seraient responsables de l'accumulation de ce minéral extrêmement utile.* CYCLE DU SOUFRE BARRIERE DE JAROSITE — Après quelques jours de lixiviation, la chalcopyrite se recouvre de jarosite (croûte foncée) qui bloque la progression de l'oxydation.(Grossissement de 400 fois).A UN PROCHE PARENT - Ferrobacillus ferrooxidans est un autre nom de Thiobacillus ferrooxidans.T r.ft c i ü.us fl/KCB/lC' Llv,\ ff/KRC C X, C ar 1 O AWi f/î bactéries I sulfato-réductrices X SULFATES SULFURES SOUFRE (S) Mais revenons aux métaux et à l'hydrogène sulfuré.Lorsque ces eaux chargées de métaux rencontrent le sulfuretum, le H2S leur refile aussitôt son atome de soufre pour en faire des sulfures métalliques, FeS2, FeCuS2, CuS et CaS.Ces sulfures sont insolubles et s'accumulent dans le milieu.Le sulfuretum agit alors comme un filtre biologique, immobilisant les métaux dissous dans l'eau dans des sulfures.C'est ainsi que la majeure partie des grands gisements de sulfures métallifères se seraient formés.Les minerais d'uranium ont probablement été concentrés de cette manière, de même que le cuivre.le plomb, le zinc et le cadmium que l'on trouve tous sous forme de minerais sulfurés.Par contre, on n'a pas encore décelé chez ces minerais le biais isotopique observé près des dépôts de soufre.sauf dans le cas du fer.lupiisow ton blïi Ulei» Mm ai En effet, on trouve des sulfures de fer (FeS: marcasite et FeS2 : pyrite) dans les sédiments marins et dans les endroits où des sulfureta ont pu se développer.De plus, preuve concluante, le soufre de ces sulfures dénote le déplacement isotopique caractéristique de la biogénèse.puise son dons an1 Jonc à en piÉtes, L'action des microbes ne s'arrête pas là.Il existe aussi des ferrobacilles répondant aux noms de Sphaerotilus et Leptothrix capables de fixer des atomes de fer dissous dans des composés insolubles.Il est ] ensuite très facile d'obtenir du fer métallique de cet hydroxide de fer (Fe(OH)3) ! rouge-brun.C'est probablement ce fer natif très pur qui a été utilisé le premier par les hommes et qui leur a permis de passer de l'âge de pierre à l'âge de fer.Mais les dépôts de ce minerai de fer pur sont rares.Très tôt, les hommes durent tant bien que mal tirer leur fer des oxydes, où il se trouve lié avec de l'oxygène.Dans des fourneaux aux températures de plus en plus élevées, ils sont parvenus à entretenir l'important processus de réduction par lequel une substance comportant de l'oxygène en perd une partie ou la totalité.Aujourd'hui, le processus a atteint un niveau d'efficacité très élevé dans les hauts fourneaux, qui ne sont que d'immenses machines à réduction.:: lîtlKT »MW c.:' KLjiC i In1.::' alor:T Des so uni t::-arrcir i,’ tient suh soufte.Poos les ra len:r;e ïettfaiie Jelmiati! fa to' ce mil» l leptocessi leshoci n::e.s» Ce processus s'appliquait tant que les minerais revêtaient la nature d'oxydes métalliques, souvent d'anciens sulfures corrompus par cet oxygène fatal aux premiers thiobacilles.Mais, beaucoup de métaux se présentent sous la forme de sulfures métalliques, dans le sol.Et, lorsque les Égyptiens s'irritaient de posséder des couteaux de cuivre cassants, ils ne se doutaient pas que le minerai utilisé était trop riche en soufre.Quant à l'extraordinaire réputation dont jouissait le cuivre de Chypre, il la devait uniquement à la faible teneur en soufre des minerais de cuivre de l'fle.iecomot Cob:1- in Mific'r tasiou! Ur:yj.l'îlîitpjs Siooiiict SfaBtas |eler|c(|, Nmeci En pratique, la réduction traditionnelle se révélait incapable de retirer le soufre du cuivre.Il fallut se résoudre à transformer le sulfure en oxyde.On y parvient au prix de grandes dépenses énergétiques par le grillage, en exposant les sulfures à l'oxygène tout en les chauffant à 1 000°C et plus.C'est à cette oxydation brutale que les villes minières doivent la fumée d'oxyde de soufre (S02 ) qui rend les lacs environnants acides et jaunit leur gazon.pour fil,, «bitti, Nu Sucs» usai et fj ftitieiiu fier act,, tank.UNE PESTE UTILE Pourtant, sans aucun bruit, des microbes peuvent transformer les sulfures en oxydes.Tout comme elles ont contribué à Kim, J.P.Langlois Wi# wissullj ' :> .i crobe survécut, mais malgré que les essais en laboratoire aient démontré une possibilité d'extraction de 60 pour cent du cuivre, l'usine pilote ne parvient qu'à en chercher 40 pour cent.La société a donc décidé d'employer une lixiviation purement chimique du minerai, dans d'immenses bassins.UN ESSAI — L’usine pilote de la Noranda, construite à MurdochviUe, en Gaspésie, a confirmé l'efficacité de la Hxivjation bactérienne sous le climat québécois.A gauche, se trouvent les 550 kilogrammes de minerai utilisé pour l'expérience; au centre, on distingue les précipita-teurs de cuivre; et à droite, la construction abritant les pompes, les instruments de mesure et la chaudière de la chaufferie.A Un des problèmes rencontrés par M.Ta-rassoff a été la production de jarosite à travers le tas de minerai.Ces couches de jarosite (un type de sulfate et d'hydrqxide de fer de couleur jaune) forment des galettes par dessus le minerai et empêchent la solution de percoler à travers le tas.Or, il y a cinq ans, le Conseil national de recherches fut appelé à étudier le cas de l'édifice Bell, à Ottawa, qui s'était soulevé de près de 10 centimètres depuis sa construction, en 1929.Au tout début, les scientifiques du Conseil n'y comprirent rien.Puis, une excavation fit voir d'étranges taches jaunes sur le schiste de l'assise rocheuse de l'édifice.C'est en pensant à la jarosite formée par le thiobacille que les chercheurs trouvèrent la bonne piste.Après quelques forages, ils constatèrent que les quinze centimètres de schiste situés juste sous les fondations étaient réduits en une bouillie éclatée de cristaux de gypse tachés de jaune.Un peu plus profondément, le schiste sain démontrait une forte teneur en pyrite.La bactérie avait trouvé là tout ce qu'il lui fallait.Elle transformait la pyrite en sulfate de fer et en acide sulfurique.Ensuite l'acide dissolvait le schiste en gypse.En un mot, le schiste était dissocié en une roche plus volumineuse.Indirectement, Thiobacillus soulevait l'édifice par le même processus de lixiviation exploité par les compagnies minières Jusqu'ici, l'énergie de thiobacillus ferro-oxidans a été mise en œuvre pour extraire du cuivre et de l'uranium.Mais ses possibilités ne se limitent pas à ces deux métaux.Dernièrement, MM.Torma et K.N.Subramarian, ce dernier du Centre de recherche Noranda, ont démontré que le bacille pouvait extraire le cuivre, le zinc et le cadmium que l'on trouve dans les sulfures de plomb, et qui sont presque complètement laissés pour compte.Tout en récupérant le plomb, la contamination par le thiobacille a permis de recueillir 98 pour cent du cuivre et 96 pour cent du zinc, en laboratoire.Dans le Complexe scientifique de Québec, où sont rassemblés les laboratoires gouvernementaux, aidé de M.Roger Quay, M.Torma cherche entre autres, à mieux comprendre comment vaincre la barrière de jarosite qui enveloppe la roche d'un manteau imperméable, après quelques heures de lixiviation.À la fin de l'année dernière, en collaboration avec M.Martin Tabi, de la faculté d'agriculture de l'université Laval, M.Torma a publié un article dans la revue I7n-génieur, dans lequel il souligne que la lixiviation directe de chalcopyrite riche à 30 pour cent en cuivre abaisserait le coût de production du kg de cuivre de entre 0,66 et 1,00 dollar à seulement 0,13 dollar le kg.Le cuivre se vend présentement à 1,21 dollar le kilo.De plus, les microbes tirant leur énergie du minerai lui-même, on n'a plus besoin des températures élevées et des hautes pressions des installations de traitement coûteuses et complexes.Les petits gisements qui ne justifient pas le fardeau financier des installations classiques pourraient devenir des proies tout à fait rentables si on les offrait aux thiobacilles.Enfin, bien qu'on ait presque parlé uniquement de Thiobacillus ferrooxidans, la géomicrobiologie connaft bien d'autres microbes.On étudie des microbes qui séparent l'huile des schistes bitumeux et d'autres qui éliminent le soufre du charbon.Puisqu'ils se multiplient auprès des gisements de sulfures métallifères, leur présence dans un milieu ne permettrait-elle pas de localiser les dépôts?Bref, la géomicrobiologie et la biométallurgie sont des sciences toutes neuves et on peut s'attendre à ce qu'une meilleure connaissance des microbes apporte dans ces sciences des résultats non moins spectaculaires que ceux réalisés en pharmacologie.• ISlîKO ««rifl «[» idU teiieit (lütit Jeanci iiüls Tour minatiM ueilSi tntdii ûoéta sjoy- Gui), àmituj kamid ed'an , Un instrument de diagnostic de type écho ’‘encéphalographie, qui émet dans la bofte crânienne de très faibles quantités d'ultra-dsons, a été mis au point par deux ingé-i nieurs du Conseil national de recherches, à Ottawa.Cet appareil, le Digiécho, que fabrique la firme Radionics Ltd, peut indi quer promptement toute anomalie cérébrale.Le Digiécho ne peut pas révéler la nature du mal, mais il permettra dorénavant aux spécialistes de procéder plus tôt à des tests ou examens plus spécifiques et I plus complexes, sans compter que le pa-i!tient leur sera «livré» plus tôt.(La Presse, 2-3-74) acuité mtl'/r utlali» fttîüll coût* Le Canada peut-il et doit-il s'aventurer seul ou avec d'autres dans des recherches de pointe comme la fusion thermonucléaire contrôlée, qui exigent la mobilisation de capitaux énormes pour la solution de problèmes technologiques majeurs?C'est pour répondre à cette question qu'Otta-wa vient de confier à cinq institutions canadiennes, qui poursuivent déjà des recherches sur la fusion thermonucléaire contrôlée, la mission de déterminer l'urgence nationale d'un programme de ce genre, l'étendue et les limites de ces tra-svaux, et la possibilité de les incorporer à i un programme international de recherches ilicO.SJ c spécifiques sur la fusion.(La Presse, \30-1-74) L'antibiotique tétracycline, utilisé depuis bon nombre d'années, devrait être interdit aux enfants de moins de sept ans ainsi qu'aux femmes enceintes.Bien que son aiusage ait été maintes fois dénoncé par le )i Collège des médecins et des chirurgiens du jj'aJ|i.i I Québec, le docteur L.Chicoine, de l'hôpi-5 pour :aitnnt}j jollïlt enta ercijt besoin iisj» tal Sainte-Justine, à Montréal, déplore la lenteur de la diffusion de l'information médicale, les revues spécialisées étant encore trop peu lues par les médecins.Sans préconiser la disparition totale de la tétracycline sur le marché, le docteur Chicoine estime que son usage est de moins en nmoins justifié puisque de nombreux anti-18 |biotiques, tout aussi efficaces, sont apparus au cours des dernières années.(Le Soleil, 16-2-74) [lé# idaffiJ iixtt liicbir piii® i,W.[ JJÏÜ1 Des chercheurs torontois qui travaillent sur le cancer ont révélé qu'ils ont réussi à isoler pour la première fois des particules semblables à des virus à partir de cellules leucémiques humaines.Cette révélation susceptible de donner un élan nouveau aux recherches sur le traitement de la leucémie et du cancer ont été effectuées par les docteurs W.M.Mak et A.F.Howatson, de l'hôpital Princess Margaret et de l'Institut ontarien pour le cancer.La découver- te des médecins torontois ouvre de nouvelles perspectives de traitement de la leucémie parce qu'on pourra probablement trouver des moyens de s'attaquer uniquement aux virus responsables.(Le Devoir, 19-2-74) La guerre contre les insectes pourrait être gagnée par un contrôle génétique permettant de produire des insectes mutants qui ne pourraient plus piquer, ou des mouches tsétsé qui ne transmettraient plus la maladie du sommeil, par exemple.Ce contrôle génétique, appliqué aux insectes, vise à éliminer certaines caractéristiques et à en renforcer d'autres.Un groupe de chercheurs de l'Université de Colombie Britannique travaille dans ce domaine qui, de leur avis, est la meilleure voie pour accéder à la maftrise du problème des insectes.(The Gazette, 5-2-74) Des ingénieurs de l'Université de Toronto ont réussi à mesurer l'épaisseur de la glace polaire à l'aide d'un radar spécial installé à bord d'un hélicoptère.Le principal problème auquel se heurtaient les ingénieurs jusqu'ici, était de réduire de façon drastique la puissance requise (100 mégawatts) pour émettre un signal capable de percer quatre mètres de glace.Le système imaginé par les ingénieurs comprend 64 antennes portées par une plateforme placée sous l'hélicoptère.Mais, pour faire descendre le système jusqu'à environ 3 mètres du sol, réduisant ainsi considérablement l'énergie requise, les techniciens ont dû imaginer une façon nouvelle de lire les réponses en mesurant non pas le temps de parcours du signal-radar, mais la forme des ondes à leur retour.(The Globe and Mail, 9-2-74) Leministre d'État aux Sciences et à la Technologie, Mme Jeanne Sauvé, a décidé d'encourager la diffusion de l'information scientifique au sein de la population en fournissant chaque année les fonds nécessaires pour décerner un prix de 1 000 dollars à un rédacteur qui aura contribué d'une manière remarquable à l'avancement du journalisme dans le domaine scientifique et technologique.(Le Devoir, 28-1-74) Même si les Français du Canada ont été les pionniers dans le développement des sciences naturelles en Amérique, il n'en demeure pas moins que le Québec est parmi les provinces les moins bien organisées du Canada dans ce domaine, selon M.Paul Bouchard, biologiste et directeur de l'Aquarium de Québec.(Le Soleil, 25-2-74) Une analyse des registres météorologiques de huit régions métropolitaines aux États-Unis a démontré que la plupart de celles dont le climat est humide ont connu depuis un certain nombre d'années un accroissement des précipitations atmosphériques (pluies) et des orages, surtout dans la saison chaude indiquant ainsi que l'activité humaine joue un rôle-clé dans l'activité météorologique.On sait que le principal effet de l'activité humaine est d'engendrer la pollution.(La Presse, 23-1-74) Selon un conseiller du gouvernement fédéral, l'énergie nucléaire devrait éventuellement être utilisée pour l'exploitation et l'amélioration des produits pétroliers des sables bitumineux de l'Alberta.Un procédé déjà mis au point dans le cadre du développement du réacteur CANDU pourrait permettre la production d'hydrogène à un coût moindre que par les méthodes conventionnelles.Le Dr G.M.Griffiths, conseiller du gouvernement fédéral en matière d'énergie nucléaire, entrevoit la possibilité d'utiliser l'énorme quantité de chaleur produite par les réacteurs nucléaires, pour extraire le pétrole, des sables bitumineux.De plus, il suggère que l'hydrogène produit par ces réacteurs soit ajouté au pétrole tiré des sables, de façon à en améliorer les qualités de combustion.(The Globe and Mail, 20-2-74) Les scientifiques du Conseil de recherches pour la défense ont mis au point une «pilule» électronique qui permet de connaître la température interne de la personne qui l'absorbe.De la grosseur et de la taille d'une aspirine, cette pilule est destinée à rendre compte de l'état des plongeurs des Forces armées, lorsqu'ils évoluent dans les mers glaciales de l'Arctique.(The Globe and Mail, 14-2-74) Les onze gouvernements canadiens ont décidé d'entreprendre des études qui déboucheront peut-être sur la création d'un réseau national d'électricité.Pour le moment, les gouvernements provinciaux se prévalent de sommes mises à leur disposition, en janvier dernier, par le ministre de l'Énergie, des Mines et des Ressources, M.Donald MacDonald, et confieront à des spécialistes le soin d'examiner la création de réseaux interrégionaux d'électricité.En même temps, le gouvernement fédéral croit que devant la présente situation de l'énergie à l'échelle mondiale, on se doit de pousser plus loin d'autres études qui pourraient éventuellement permettre la création d'un tel réseau.(La Presse, 24-1-74) 48 POUR EN LIRE PLUS DOSSIER MÉTHODOLOGIQUE DE L'ÉNERGIE ET LE DÉSARROI POST-INDUSTRIEL Louis Puiseux Dossier méthodologique .de, l'Energie et le.désarroi posMndusIriel to prôv'oon a« ccnscnrnctlon i fiilurihlts HL Complément du livre «L'Énergie et le dé sarroi post-industriel», présenté le mois dernier, par Louis Puiseux, Collection Futuribles, Hachette Littérature, 1974, 185 pages, $13.25 En vente dans les librairies A la source de la crise énergétique, se trouve le taux d'augmentation rapide de la demande en énergie.En fait, la crise n'est qu'une conséquence de cette inextinguible soif de kilowatts.Jusqu'ici on a beaucoup parlé d'accroftre les ressources pour répondre à cette demande, mais ne vaudrait-il pas la peine de s'interroger un peu sur la cause de la pénurie?C'est ce que fait Louis Puiseux dans cette suite à son premier livre, «L'Énergie et le désarroi post-industriel».L'assimilation de ce dossier arrachera certainement quelques gémissements au lecteur peu familier avec les mathématiques.Mais, Louis Puiseux a voulu nous donner les outils qui permettent de savoir si le gouvernement du Québec a raison lorsqu'il dit que les Québécois auront besoin des mégawatts de la baie James d'ici 1985.En effet, l'Hydro-Québec planifie sa production à raison d'une croissance moyenne de 7% par année.Jusqu'ici, celle-ci s'est toujours vérifiée (voir QUÉBEC SCIENCE, octobre 1973, Où en est la baie James).Un taux de croissance de 7% signifie un doublement à tous les dix ans et cette augmentation de la demande d'électricité est devenue la plus célèbre des lois de la prévision.«Presque aucune autre grandeur économique ne présente une telle conjonction de rapidité et de stabilité dans la croissance», écrit Louis Puiseux.Mais s'abandonner à cette simple extrapolation serait démissionner.L'auteur s'y refuse et dissèque pour nous ce monstre insatiable.A vous de faire vos propres prévisions.Vous pourrez même mesurer la probabilité que vous avez de vous tromper .• LES PLANTES D'INTÉRIEUR |Les Plantes m d’intérieur wC’L iotajdn m" par Paul Pouliot, Les Éditions de l'Homme, 407 pages, $6.00 En vente dans les librairies et kiosques à journaux TÉLÉ-CLINIQUE MONTRÉAL-LYON Téléclinique Montréal-Lyon ; Bilan de la première télé-conférence médicale par satellite entre la France et le Québec, Université du Québec, 185 pages (polycopié), GRATUIT Gmipef ilCîHÉ Infomati' Ottî»î «Pour avoir un avant-goût du printemps, cueillez des branches ou des tiges de plantes ligneuses (arbres et arbustes) à floraison hâtive dont vous forcerez la végétation à l'intérieur.» L'excellent chroniqueur horticole de «La Presse», Paul Pouliot, vient de faire paraître après «Le jardinage» et «Les techniques du jardinage», un troisième volume, sur les plantes d'intérieur cette fois.En cette époque où, de plus en plus, les gens deviennent citadins, il est paradoxal —et combien rassurant— de constater qu'ils aiment de plus en plus à s'entourer de verdure.Paul Pouliot offre le guide idéal: liste exhaustive des plantes «cultivables» en appartement, code d'entretien, types de sols, cycles et facteurs de croissance, explications en abondance, en plus de nombreuses photographies et dessins.Quelques erreurs se sont glissées dans les légendes de quelques photographies, mais l'éditeur a eu l'honnêteté de les rectifier au début du livre.Elles seront sans doute corrigées dans une prochaine édition.Car, souhaitons-le, ce livre aura la vie longue et, qui sait?peut-être que monsieur tout-le-monde profitera de ses expériences botaniques pour découvrir le cycle de la vie et réclamer plus d'espaces verts dans nos villes bitumeuses.• Ceux qui ont lu l'article de Pierre Sorma-ny («Quelque part entre l'homme et le message») dans le présent numéro et regardé l'émission «La flèche du temps», le 10 mars dernier à la télévision de Radio-Canada, seront heureux d'apprendre que la vice-présidence aux Communications de l'Université du Québec chargée de la conception et de la coordination du programme de télé-conférences par satellite entre le Québec et la France, met à la disposition des intéressés un volume relatant les principales étapes de la première expérience menée le 14 juin dernier.latél fa aux [ olfiali ttntes.sitimu Le volume décrit l'objectif du programme, l'événement lui-même, la problématique .prend de plus le texte intégral de la com- munication (il est toujours intéressant de constater que les paroles des rgédecins peuvent s'avérer plus compréhensibles que leurs ordonnances!), l'évaluation de l'expérience ainsi que les commentaires sur le rapport d'évaluation lui-même.La consultation de ce compte rendu exhaustif pourra certainement satisfaire la curiosité des lecteurs de QUÉBEC SCIENCE.L'Université du Québec met gratuitement à leur disposition le bilan de la toute première expérience.Pour en obtenir un exemplaire, il suffit d'écrire à la: Vice-présidence aux communications Université du Québec (siège social) 2875, boulevard Laurier Ste-Foy, Québec, G1V 2M3.• nu mémo tonslit «ion, Ltséti mts qui Wàpei loyeojpo Luteun diiciio' de: do«i ÜfHJverfien .ton avec liinqueij b de la ^ la u fa et ou h filial Posants ( foldenp. LE TÉLÉCABLE ET LA RÉTRO-Êii ACTION DU CITOYEN AVEC LE GOUVERNEMENT Group* rf*«Turl* «n la t4!4informa1iqu« ntt oit; elle reSora me et le io eue-iemfisi(< de M» (idteflK iceliom jÉedeli ndipio- satellite stale «tele iiemièie $3tPire ebec idée B1 le bile» loaieti»11 Ictiteî $ Jri il Groupe d'étude sur la téléinformatique au Canada, Collection «Études», no 4, 44 pages, $1.50 Information-Canada, 171, rue Slater, Ottawa La rétroaction des citoyens est leur réaction aux politiques et aux programmes officiels, adressée aux autorités compétentes.Un coup de fil à donner à un conseiller municipal, les vociférations d'un citoyen au cours d'une assemblée publique, un mémoire adressé au gouvernement constituent autant de formes de la rétroaction.Les développements technologiques imminents qui permettront de se servir des télécâbles de façon bi-directionnelle, donnent à penser que la rétroaction des citoyens pourra s'exercer d'une manière systématique et efficace.L'auteur de « Le télécâble et la rétroaction du citoyen avec le gouvernement», Jean-Michel Guité, après avoir dressé le tableau des possibilités technologiques, presse le gouvernement d'agir et ce, en concertation avec les gouvernements provinciaux, afin que les incidences culturelles évidentes de la programmation de telles innovations n'échappent pas à son contrôle.Déjà, la marge culturelle entre un Américain et un Canadien anglais est bien mince; s'il fallait que des moyens culturels aussi puissants nous soient étrangers, c'en serait fait de nous! • Organisation de Coopération et de Développement Économiques, 450 pages, $9.50 Distribué par Information-Canada, 171, rue Slater, Ottawa En raison même du «succès» de la recherche scientifique et du progrès technique, l'humanité se trouve placée devant des risques et des dangers nouveaux créés par l'homme et pour lesquels il n'existe aucun mécanisme régulateur écologique ou naturel.S'ils veulent éviter des catastrophes et un effondrement socio-culturel, les hommes devront redéfinir leurs relations avec les systèmes humains induits par la technologie et trouver de nouveaux moyens de soumettre la recherche scientifique et l'innovation technologique à une certaine forme de contrôle social.Tel est le point de départ d'un rapport intitulé «La société et la maftrise de la technologie», que vient de publier l'OCDE.Ce rapport, dont le but est d'aider à mettre au point de meilleures méthodes d'évaluation permanente des conséquences sociales et économiques des nouvelles techniques, fait le bilan du progrès technologique: échec dans la réponse aux aspirations sociales, mais réussite en ce qui concerne l'intégration rapide de l'économie mondiale., Ce rapport, qui a été préparé sous la direction de M.François Hetman, de la Direction des affaires scientifiques de l'Organisation, est l'aboutissement d'une étude détaillée demandée en 1971 par les Ministres des affaires scientifiques des pays de l'OCDE.Il considère que, s'il est possible de stopper ou de prévenir des innovations socialement indésirables, cela n'est qu'à peine praticable au plan national, car les techniques nées d'innovations technologiques se répandent rapidement et leurs incidences prennent un caractère universel.Le rapport admet qu'il est encore impossible de diriger et d'organiser la technologie à l'échelle mondiale, mais souli- POUR EN LIRE PLUS/ 49 LA SOCIÉTÉ ET LA MAITRISE DE LA TECHNOLOGIE La Société et la Maîtrise de la Technologie gne que des accords, même limités, seraient déjà très utiles dans le cadre d'un effort pour maîtriser la technologie et préserver les intérêts généraux de la société.Après avoir fait le procès de la technologie, le rapport pose la question fondamentale: dans quelle mesure le développement futur de la technologie peut-il être orienté vers des voies souhaitables sans étouffer l'innovation?Excellente question en effet.Tout le reste du volume est consacré à l'investigation des méthodes qui permettraient d'évaluer la technologie.Les amateurs de problèmes globaux pourront s'adonner à coeur joie au décodage des très nombreux tableaux, graphiques, nomenclatures et arbres que comporte l'ouvrage.Heureusement, il propose, en conclusion, une «base» pour l'élaboration d'une série de directives communes aux pays membres de l'OCDE pour l'avenir.Aux non-initiés à ce genre de problèmes, prière de s'abstenir! • ' par Claude Boucher \e inflationniste QUÉBEC SCIENCE s'est mis quelque peu à l'abri de l'inflation au début de l'année en né-^jigociant des contrats d'un an avec ses fournis-Î^T^seurs.Ces derniers enragent de voir grimper ^leurs coûts de production sans pouvoir changer un iota de notre contrat.Le prix du papier a augmenté de près de 40%.Et ce n'est là que la partie la plus visible de l'iceberg que constituent les frais de production d'un magazine.Tôt ou tard, la spirale nous happera: les contrats d'un an ne sont pas éternels! Avant de nous trouver contraints à hausser nos tarifs, nous avons pensé offrir à tous nos lecteurs une dernière échappatoire: s'abonner ^^jou se réabonner tout de suite au tarif actuel î^^et ce, pour le nombre d'années qu'ils le désire-^¦•l^ront, leur permettant ainsi d'échapper à la spirale inflationniste.FAITES-LE TOUT DE SUITE (notre résistance à l'inflation est limitée!) et faites profiter vos amis de notre offre.Retournez-nous dès aujourd'hui le coupon ci-joint accompagné de votre paiement.-CS N O ci CJ JJ.J'ÉCHAPPE À LA SPIRALE, Je m'abonne ?Je me réabonne ?pour___années au magazine QUÉBEC SCIENCE.est bien entendu que si mon abonnement n'est pas échu présentement, vous le prolongerez d'autant.NOM ADRESSE VILLE CODE POSTAL J'ABONNE (OU FAIS S'ABONNER) UN AMI (même les parents sont des amis s'ils lisent QUÉBEC SCIENCE!) Veuillez abonner pour_années au magazine QUÉ- BEC SCIENCE: NOM ADRESSE VILLE CODE POSTAL TARIFS TEMPORAIRES POUR UN AN / 10 NUMÉROS: • RÉGULIER: $5.00 • ÉTUDIANT: $3.50 DÉCOUPEZ ET EXPÉDIEZ LE TOUT ACCOMPAGNÉ DE VOTRE PAIEMENT* * (chèque ou mandat postal à l'ordre du MAGAZINE QUÉBEC SCIENCE): LE MAGAZINE QUÉBEC SCIENCE Case postale 250 Sillery, Québec 6 GIT 2R1 • Le crédit est l'un des principaux responsables de l'inflation.CHEC & /H4THS PROBLÈME NUMÉRO 31 LES CINQ MARIS JALOUX Cinq couples mariés arrivent à une rivière.Pour la traverser, ils disposent d'un canot qui peut contenir, au plus, trois personnes à la fois.Comme chacun des maris est très jaloux, aucune femme ne doit se trouver avec un autre homme dans le canot, ou sur l'autre rive, à moins que son mari ne soit présent.On demande de trouver comment tous ces gens pourront traverser la rivière sans susciter la jalousie des maris?SOLUTION DU PROBLÈME NUMÉRO 29 Il existe deux solutions possibles qui comportent l'une et l'autre seize mouvements.A NOTRE PROCHAIN SOMMAIRE ?La politique des bombes: la route vers le démantèlement des engins balistiques conduit la dissuasion nucléaire tout près d'une zone de grande instabilité.La téléinformatique: reliez les ordinateurs les uns aux autres, vous constaterez qu'ils ont beaucoup de choses à se dire.tout comme les commères.Les trous noirs: des étoiles mortes qui mangent leurs voisines; peut-être l'état initial ou final de l'univers.La machine à plancton: en face de Tadoussac, le jeu des courants marins produit de la nourriture pour tous les poissons du Golfe Saint-Laurent.et il en reste pour ceux des grands bancs de Terre-Neuve. Énergie, Mines et Energy, Mines and Ressources Canada Resources Canada 1+ Le ministère fédéral de l'Énergie, des Mines et des Ressources offre gracieusement des publications scientifiques vulgarisées sous la forme de brochures pratiques.Il suffit d'en faire la demande à l'un des comptoirs d Information Canada ou au bureau de Québec ou d'Ottawa du ministère.Les quelques publications décrites ci-dessous vous donneront une idée de certains des sujets que l'on y traite.• RESSOURCES SOUS-MARINES — Les techniques utilisées pour découvrir des gisements de pétrole sous la mer.36 pages illustrées de schémas et de photos.• TÉLÉDÉTECTION AU CANADA — La photographie de tout le Canada à partir du satellite ERTS.Techniques utilisées et résultats obtenus.19 pages illustrées de schémas et de photos.• EN OBSERVANT L'I NTÉRI EUR DE LA TERRE — Étude des noyaux intérieur et extérieur de la T erre, de la croûte terrestre et de la lithosphère.36 pages illustrées de photos, de cartes et de schémas.• RECHERCHES SUR LES MÉTAUX — Historique, production au Canada, extraction, traitement, fusion, fabrication, pollution et protection de l'environnement.20 pages illustrées de photos et d'un tableau.• RECHERCHES SUR LES COMBUSTIBLES — Historique, combustibles modernes, charbon, pétrole et sables bitumineux.Sécurité et pollution.20 pages illustrées de photos.• INTRODUCTION À L'ÉNERGI E AU CANADA — Les sources d'énergie au Canada; l'eau, le charbon, le pétrole, le gaz naturel, l'uranium, l'électricité, l'énergie thermique et les réacteurs nucléaires.32 pages illustrées de schémas et de photos.Le ministère distribue gratuitement d'autres publications qui sauront vous intéresser.Si vous ne pouvez vous rendre à l'un des comptoirs d'information Canada ou à notre bureau de Québec ou d'Ottawa, faites-nous parvenir le bon de commande ci-dessous en y indiquant les publications désirées.N'oubliez pas de demander notre liste de publications gratuites! A votre service.I—— — — ———— — —l 1 Nom___________ Publication(s) désirée(s) | Adresse___________ ________| a Ville____Province_ _________ 1 Code postal_ ______________I L——— J ÉNERGIE, MINES ET RESSOURCES CANADA Édifice Bellevue, 1535 chemin Ste-Foy Québec, Qué.G1S2P1 (418)694-3325 ÉNERGIE, MINES ET RESSOURCES CANADA Relations publiques et Information 588, rue Booth, Ottawa, Ont.K1A0E4 MINISTÈRE DE L’ÉNERGIE, DES MINES ET DES RESSOURCES - OTTAWA Donald S.Macdonald, ministre Jack C.Austin, sous-ministre tout en explorant le fond des océans WÆ*HÊ .f Va ii j f '< w- rr >1 • ^ ' * ' 4*.f * t ni s F A ft OSA )SON £
de

Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.

Lien de téléchargement:

Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.