Voir les informations

Détails du document

Informations détaillées

Conditions générales d'utilisation :
Protégé par droit d'auteur

Consulter cette déclaration

Titre :
Le devoir
Quotidien montréalais indépendant et influent, qui informe rigoureusement et prend part aux grands débats de la société québécoise [...]

Fondé à Montréal par l'homme politique québécois Henri Bourassa, le quotidien Le Devoir paraît pour la première fois le 10 janvier 1910. Bourassa rassemble autour de lui une équipe de rédaction fort compétente. En font partie Olivar Asselin, Omer Héroux, Georges Pelletier, Louis Dupire et Jules Fournier.

Dès ses débuts, Le Devoir se veut patriotique et indépendant. Résolument catholique, il est partisan de la doctrine sociale de l'Église et appuie un encadrement catholique des mouvements associatif, syndical et coopératif. De tout temps, il défendra la place de la langue française et sera des débats sur la position constitutionnelle du Québec.

Au cours des années 1920, le catholicisme du directeur se dogmatise, ce qui rend plusieurs journalistes inconfortables, mais l'orateur demeure une figure très en vue qui permet au journal d'amasser des fonds. Grâce à lui, Le Devoir pourra toujours s'appuyer sur des donateurs privés, dont certains siègent à son CA. Des journalistes tels Fadette, Jeanne Métivier et Paul Sauriol y font leur marque à la fin de la décennie.

Proche des cercles intellectuels influents, Le Devoir a une vocation nationale. Une grande part de son tirage est tout de même acheminée dans les milieux ruraux. Le journal offrira d'ailleurs un vif appui à l'organisation de l'agriculture québécoise. Il ne pénétrera que tardivement, mais sûrement, le lectorat de la zone métropolitaine.

Au départ de Bourassa en 1932, Georges Pelletier prend la direction du journal. Un regard d'aujourd'hui sur l'époque des décennies 1930 et 1940 révèle une phase plutôt sombre, empreinte d'antisémitisme, le Juif représentant à la fois la cupidité du capitalisme et le péril athéiste lié au communisme.

Durant la Seconde Guerre mondiale, Le Devoir lutte contre la conscription et rapporte les injustices faites aux Canadiens français dans les corps militaires. Sur le plan politique, bien qu'indépendant, le quotidien appuie la fondation du Bloc populaire, parti nationaliste, et se rapproche parfois de l'Union nationale.

Gérard Filion prend la direction du journal en avril 1947. Il en modernise la formule et attire de solides jeunes collaborateurs, dont André Laurendeau, Gérard Pelletier et Pierre Laporte. Le journal prend alors définitivement ses distances de l'Union nationale, critiquant l'absence de politiques sociales, l'anti-syndicalisme et la corruption du gouvernement québécois, et dénonçant la spoliation des ressources naturelles.

À partir de 1964, le journal est dirigé par Claude Ryan, qui en base l'influence sur la recherche de consensus politique, entre autres sur les sujets constitutionnels. Sous sa gouverne, Le Devoir sera fédéraliste pendant la plus grande partie des années 1970.

Bien qu'il soit indépendant des milieux de la finance, Le Devoir est le quotidien montréalais qui accorde la plus grande place dans ses pages à l'économie, surtout à partir des années 1980. En 1990, l'arrivée de Lise Bissonnette à la direction redynamise la ligne éditoriale et le prestige du journal. Le Devoir appuie résolument la cause souverainiste.

Au XXIe siècle, sous la gouverne de Bernard Descôteaux, puis de Brian Myles, Le Devoir continue à informer les Québécois, à donner l'ordre du jour médiatique, à appuyer l'émergence des idées et à alimenter le débat social. C'est pourquoi il faut regarder ailleurs que dans ses données de tirage, relativement plus basses que celles des autres quotidiens montréalais, pour mesurer la force de son influence.

Sources :

BEAULIEU, André et Jean HAMELIN, La presse québécoise des origines à nos jours, Sainte-Foy, Presses de l'Université Laval, 1979, vol. 4, p. 328-333.

BONVILLE DE, Jean, Les quotidiens montréalais de 1945-1985 : morphologie et contenu, Québec, Institut québécois de recherche sur la culture, 1995.

LAHAISE, Robert (dir.), Le Devoir : reflet du Québec au 20e siècle, Lasalle, Hurtubise HMH, 1994.


Éditeur :
  • Montréal :Le devoir,1910-
Contenu spécifique :
Cahier D
Genre spécifique :
  • Journaux
Fréquence :
quotidien
Notice détaillée :
Lien :

Calendrier

Sélectionnez une date pour naviguer d'un numéro à l'autre.

Fichiers (5)

Références

Le devoir, 2018-12-08, Collections de BAnQ.

RIS ou Zotero

Enregistrer
[" LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 NUMÉRO 4 DE 10 I N T E L L I G E N C E A R T I F I C I E L L E AHIER SPÉ C D CIAL HumanIA Un regard humaniste, éthique et multidisciplinaire sur l\u2019intelligence arti?cielle.humania.uqam.ca ISTOCK ENJEUX ET CODE D'ÉTHIQUE Pour que la machine reste l'alliée de l'homme Montréal, plaque tournante de l'intelligence artificielle (IA), et aussi, depuis mardi, créatrice d'une Déclaration pour un développement responsable de l'IA.Car si enivrante et prometteuse que puisse être l'effervescence actuelle dans le domaine, elle peut aussi être inquiétante si les pratiques ne sont pas bien encadrées.Tour d'horizon des enjeux éthiques liés à l'IA et des dix grands principes dont vient d'accoucher la métropole pour guider autant les scientifiques et les entreprises que les gouvernements. LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 D 2 INTELLIGENCE ARTIFICIELLE DÉCLARATION DE MONTRÉAL Pour que l\u2019humain garde le contrôle sur la machine Suivez-nous! IVADO, AU COEUR DE LA RÉVOLUTION NUMÉRIQUE ET DE L'INTELLIGENCE ARTIFICIELLE H É L È N E R O U L O T - G A N Z M A N N Collaboration spéciale «C e n\u2019est pas parce que l\u2019IA peut le faire qu\u2019on doit le lui faire faire », affirme Marc-Antoine Dilhac, professeur à l\u2019Université de Montréal, titulaire de la Chaire de recherche du Canada en éthique publique et théorie politique, et codirecteur scientifique de l\u2019exercice ayant mené à la Déclaration.Selon lui, l\u2019objectif de ce texte est d\u2019abord d\u2019élaborer un cadre éthique pour le développement et le déploiement de l\u2019IA, mais aussi d\u2019orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique.Ce texte cherche alors aussi à ouvrir un espace de dialogue national et international pour réussir collectivement un développement inclusif, équitable et écologique- ment soutenable de l\u2019IA.Dix principes et huit recommandations à l\u2019usage des gouvernements, des entreprises et des ordres professionnels ont ainsi été élaborés.Ils couvrent plusieurs thèmes clés pour penser la transition vers une société dans laquelle l\u2019IA permet de promouvoir le bien commun.Ils reflètent la culture morale et politique de la société québécoise au sein de laquelle ils ont pris naissance, mais constituent également une base pour un dialogue interculturel et international, car ailleurs dans le monde, de telles déclarations sont également en train de voir le jour.Reste maintenant aux décideurs d\u2019en débattre et ultimement de légiférer, afin d\u2019assurer une appropriation sociale harmonieuse, juste et respectueuse de ces changements technologiques, sans pour autant mettre à mal les retombées économiques promises par l\u2019intelligence artificielle.Le Devoir s\u2019est entretenu avec Marc- Antoine Dilhac à propos de cette Déclaration sans précédent.Pourquoi avoir décidé d\u2019impliquer les citoyens dans le processus de construction de la Déclaration?Il y a un bouillonnement autour de l\u2019intelligence artificielle à Montréal et une inquiétude qui s\u2019est répandue, tant au sein de la population que parmi les ex- per ts, sur ses potentiels mauvais usages.La communauté de recherche a une responsabilité, qui est à la fois d\u2019étudier les enjeux sociaux de l\u2019IA, d\u2019y répondre et d\u2019orienter le débat.Alors, pourquoi impliquer aussi les citoyens ?Nous pensons que pour décider des questions d\u2019éthique publique qui concernent tout le monde, il faut faire participer le plus grand nombre.Nous avons donc organisé des forums permettant à ceux qui le souhaitent de rencontrer des exper ts et des entreprises afin de nouer un dialogue autour de ces questions qui les touchent directement, et qui parfois peuvent leur faire peur.Que craint-on?Les inquiétudes sont de trois sortes.Il y a d\u2019abord la peur du remplacement.Perdre son emploi bien sûr, mais aussi perdre des relations sociales, des interfaces humaines dans le contact avec les administrations, avec la justice, la police, etc.Il y a ensuite quelque chose de plus métaphysique, à savoir la perte de l\u2019identité humaine.On ne sait plus très bien ce que c\u2019est qu\u2019être humain.Avec Coper nic, Gali lée, Dar win et Freud, on a appris qu\u2019on n\u2019était plus au centre de l\u2019univers, que nous n\u2019avions plus le privilège d\u2019être au sommet de la création et que nous n\u2019avions plus le contrôle absolu sur notre pensée.C\u2019est ce qu\u2019on appelle les trois blessures narcissiques de l\u2019humanité.On découvre aujourd\u2019hui qu\u2019il y en a peut-être une quatrième, qui serait que l\u2019intelligence n\u2019est pas proprement humaine.La troisième crainte enfin, c\u2019est celle de l\u2019automatisation des injustices et des discriminations.Mal nourris, les systèmes d\u2019IA peuvent en ef fet reproduire des préjugés.Raison pour laquelle nous croyons que l\u2019humain devrait toujours garder un contrôle.ISTOCK LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 INTELLIGENCE ARTIFICIELLE D 3 Les 10 principes de la Déclaration 1.PRINCIPE DE BIEN-ÊTRE Le développement et l\u2019utilisation des systèmes d\u2019intelligence artificielle (SIA) doivent permettre d\u2019accroître le bien-être de tous les êtres sensibles.2.PRINCIPE DE RESPECT DE L\u2019AUTONOMIE Les SIA doivent être développés et utilisés dans le respect de l\u2019autonomie des personnes et dans le but d\u2019accroître le contrôle des individus sur leur vie et leur environnement.3.PRINCIPE DE PROTECTION DE L\u2019INTIMITÉ ET DE LA VIE PRIVÉE La vie privée et l\u2019intimité doivent être protégées de l\u2019intrusion de SIA et de systèmes d\u2019acquisition et d\u2019archivage des données personnelles (SAAD).4.PRINCIPE DE SOLIDARITÉ Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations.Ils ne doivent pas nuire à la conservation de relations humaines affectives et morales épanouissantes, et devraient être développés dans le but de favoriser ces relations et de réduire la vulnérabilité et l\u2019isolement des personnes.5.PRINCIPE DE PARTICIPATION DÉMOCRATIQUE Les SIA doivent satisfaire les critères d\u2019intelligibilité, de justifiabilité et d\u2019accessibilité, et doivent pouvoir être soumis à un examen, à un débat et à un contrôle démocratiques.6.PRINCIPE D\u2019ÉQUITÉ Le développement et l\u2019utilisation des SIA doivent contribuer à la réalisation d\u2019une société juste et équitable.7.PRINCIPE D\u2019INCLUSION ET DE DIVERSITÉ Les SIA doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre l\u2019éventail des choix de vie et des expériences personnelles.Les milieux de développement de l\u2019IA, aussi bien dans la recherche que dans l\u2019industrie, doivent être inclusifs et refléter la diversité des individus et des groupes de la société.8.PRINCIPE DE PRUDENCE Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l\u2019utilisation des SIA et en prenant des mesures appropriées pour les éviter.9.PRINCIPE DE RESPONSABILITÉ Le développement et l\u2019utilisation des SIA ne doivent pas contribuer à une déresponsabilisa- tion des êtres humains quand une décision doit être prise.Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent.10.PRINCIPE DE DÉVELOPPEMENT SOUTENABLE Le développement et l\u2019utilisation de SIA doivent se réaliser de manière à assurer une soute- nabilité écologique forte de la planète.VOIR PAGE D 5 : IA RESPONSABLE BIAIS ET DISCRIMINATION EN INTELLIGENCE ARTIFICIELLE 3-6 JUIN 2019 | MONTRÉAL WWW.IVADO.CA ÉCOLE D\u2019ÉTÉ IVADO-MILA Comment la Déclaration de Montréal répond-elle à ces craintes?Elle a d\u2019abord pour vertu de déterminer les enjeux sociaux et éthiques de l\u2019IA.Cela nous donne une carte, une boussole.Elle rappelle à tous ceux qui veulent développer des applications liées à l\u2019IA que celles-ci doivent améliorer le bien-être et l\u2019autonomie des individus.Il y a dix principes auxquels idéalement, les algorithmes devraient répondre.Je dis idéalement parce que, par fois, certains principes vont être en tension.Le principe sur le bien-être et celui sur la protection de l\u2019intimité peuvent clairement l\u2019être.Prenons des victimes de la maladie d\u2019Alzheimer.Si je veux développer une application qui va améliorer leur bien- être, mais que, pour cela, je dois récupérer des données dans l\u2019intimité des personnes, les deux principes sont manifestement en tension.Est-ce qu\u2019on ne va pas le faire pour autant ?La Déclaration ne donne pas de réponse.Elle n\u2019est pas un carcan qu\u2019il faut suivre à la lettre.Mais ceux qui veulent réfléchir convenablement aux enjeux de l\u2019IA devraient toujours l\u2019avoir en tête avant de développer quoi que ce soit.Elle oblige à se questionner, à faire un effort de réflexion. LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 D 4 INTELLIGENCE ARTIFICIELLE CONTENU PARTENAIRE C omment équilibrer le développement de l\u2019IA avec les droits fondamentaux, comme la vie privée, le droit à l\u2019équité ou encore la transparence des systèmes?Comment orienter ces développements vers le bien commun?Depuis près d\u2019un an, HumanIA, un regroupement de chercheurs de l\u2019Université du Québec à Montréal (UQAM), se penche sur ce genre de questions éthiques amenées par le développement rapide de l\u2019IA en se concentrant sur leurs aspects humanistes.«On a réalisé qu\u2019à l\u2019UQAM, on avait beaucoup de forces vives dans tous les domaines des sciences pour s\u2019attaquer à cette problématique », explique Sébastien Gambs, professeur au Département d\u2019informatique à l\u2019UQAM et titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives.Et les solutions doivent venir de la collaboration entre les disciplines, croit-il.« Cet élément d\u2019interdisciplinarité est primordial, renchérit son collègue Dominic Martin, professeur en éthique à l\u2019École des sciences de la gestion de l\u2019UQAM au Département d\u2019organisation de ressources humaines.Nous, les éthiciens, ne comprenons pas nécessairement la technologie, mais nous pouvons contribuer à définir l\u2019équité ou la justice sociale, par exemple.» Et la façon de définir, du côté informatique, ce qu\u2019est la discrimination ou encore l\u2019équité est loin d\u2019être simple.Actuellement, le manque de consensus dans le monde sur ces définitions freine même la construction d\u2019un algorithme d\u2019apprentissage qui ne discriminerait pas.«Tant qu\u2019on ne s\u2019est pas mis d\u2019accord sur une définition, il est très difficile d\u2019établir une norme éthique», dit Sébastien Gambs.Les préjugés reproduits par les algorithmes sont l\u2019un des enjeux majeurs, expliquent les deux chercheurs.Que ce soit dans le cas d\u2019une demande d\u2019un prêt à la banque, de la prédiction des risques de récidive de crime ou encore du recrutement prédictif, où c\u2019est un algorithme qui analyse votre CV, les risques de discrimination existent.«À partir du moment où l\u2019on met en place un algorithme d\u2019apprentissage ou un système d\u2019aide à la décision, la prédiction peut avoir un impact défavorable sur un groupe d\u2019individus », explique Sébastien Gambs.Il faut donc vérifier si ces décisions défavorables faites par l\u2019algorithme visent de manière plus systématique certains groupes plus vulnérables, par exemple les Afro-Améri- cains dans le cas de prédiction de récidive de crimes aux États-Unis, ou encore les femmes, notamment en ce qui a trait à la rémunération.Un autre grand défi des nouveaux systèmes de l\u2019IA est leur côté «boîte noire», qui soulève les enjeux éthiques d\u2019explication ou de reddition de comptes.Ces mêmes réseaux neuronaux très performants en matière de précision de la prédiction le sont beaucoup moins quand il faut connaître la raison de leur décision.«La complexité interne du système est tellement extrême qu\u2019un être humain n\u2019est pas vraiment capable d\u2019appréhender tout le fonctionnement de ce système-là», dit l\u2019éthicien Dominic Martin.Par exemple, un oncologue serait incapable de comprendre comment un système d\u2019IA arrive à la décision que des cellules sont cancéreuses ou non.Et l\u2019expert en apprentissage profond serait aussi incapable de comprendre cette décision.Le professeur en informatique Sébastien Gambs constate que l\u2019enseignement éthique n\u2019existe à peu près pas dans les cours d\u2019informatique.Il suggère une piste possible à prendre : « Il faut augmenter les compétences éthiques des informaticiens et des gens qui déploient ces systèmes-là.» Les deux professeurs soulignent que ce domaine de recherche, à l\u2019intersection de l\u2019IA et des humanités, est très jeune, et qu\u2019on ne fait que commencer à cerner les enjeux les plus importants et prioritaires.«Si on recule simplement de deux ou trois ans, personne n\u2019était vraiment au courant de ce qui s\u2019en venait, rappelle Dominic Martin.Aujourd\u2019hui, il y a une conscientisation collective sur l\u2019importance de réfléchir à ces en- jeux-là, ce qui est déjà très bien.Maintenant, tout reste à faire.» Voir la vidéo à ce sujet avec l\u2019article sur le site Web du Devoir.HUMANIA À la recherche d\u2019une éthique de l\u2019intelligence artificielle ISTOCK HumanIA propose la collaboration interdisciplinaire pour faire face aux enjeux éthiques que soulève le développement à très grande vitesse de l\u2019intelligence artificielle. H É L È N E R O U L O T - G A N Z M A N N Collaboration spéciale « L es robots sont nos alliés, af firme Stéphanie Tessier, vice-présidente et directrice des relations extérieures de Montréal.IA.Ils nous permettent d\u2019avoir des transports plus ef ficaces, donc de mieux gérer les ressources de la planète.En santé, ils apportent des solutions personnalisées et sont capables de détecter mieux que l\u2019homme certaines lésions.Dans le domaine du divertissement, ils offrent de nouvelles possibilités et techniques de jeu, etc.Mais notre rôle à nous, en tant qu\u2019humains, c\u2019est de nous assurer que la technologie que nous avons mise au monde demeure bienveillante.» Si aujourd\u2019hui les algorithmes sont encore relativement peu autonomes et restent tributaires de la manière dont les humains les nourrissent pour prendre leurs décisions, i l n\u2019en sera pas de même pendant encore très longtemps.Grâce à l\u2019apprentissage par renforcement, de plus en plus développé dans les laboratoires de recherche du Québec notamment, les systèmes d\u2019intell igence ar tif icielle (SIA) seront bientôt capables de prendre leurs propres décisions.«Si un accident survient ou qu\u2019un robot commette un acte criminel, qui sera responsable ?quest ionne Mme Tessier.Ce sont des questions sur lesquelles on ne peut faire l\u2019impasse.» Responsabilité du gardien L\u2019intelligence artificielle ne se développe cependant pas dans une sorte de vide juridique.Des lois existent, auxquelles elle est soumise en attendant qu\u2019à terme, les gouvernements décident de légiférer de manière plus spécifique.« Il y a déjà des éléments dans notre Code civil, indique Éric Lavallée, avocat et responsable du Laboratoire juridique Lavery.Il y a une responsabilité civile pour le gardien d\u2019un bien, par exemple.Donc au- jourd\u2019hui, si un système d\u2019intelligence artificielle commet une faute et qu\u2019il y a un préjudice à autrui, le gardien de ce système est présumé en être responsable.» Me Lavallée ajoute que, dans certains secteurs comme la santé, qui manipulent une grande quantité de données, il existe souvent déjà des cadres normatifs et réglementaires.« On ne peut pas faire n\u2019importe quoi, note-t-il.Les entreprises qui déploient des outils d\u2019intelligence artificielle, soit comme utilisateur, soit comme développeur, doivent déjà se poser des questions face au cadre actuel.» Ainsi, une personne qui concevrait un système d\u2019IA au mépris de la sécurité d\u2019autrui, un robot qui pourrait par exemple menacer l\u2019intégrité physique des gens, et qui le ferait sciemment, pourrait être accusée de négligence criminelle.« Il y a des concepts juridiques généraux qui ont déjà été éprouvés devant les tribunaux et qui pourraient s\u2019appliquer à l\u2019IA », af firme l\u2019avocat.Injustices et discriminations Ce qui ne signifie pas qu\u2019il ne faut pas légiférer de manière plus spécifique sur certains points.Selon Stéphanie Tessier, les SIA ne devraient pas pouvoir tuer des humains, et les chercheurs ne devraient donc pas pouvoir s\u2019allier avec le secteur militaire pour fabriquer des ar mes plus ef f icaces.Dans un monde idéal, une résolution en ce sens serait prise au niveau international, mais rien n\u2019indique que cela sera le cas dans un avenir proche.« Sans aller dans ces extrêmes, on sait aujourd\u2019hui que les robots sauront de mieux en mieux reproduire des tâches humaines relativement stables et qu\u2019 i ls pour ront nous remplacer dans les emplois les plus simples, note-t-elle.Ça va af fecter le monde du travail.Pour éviter de creuser les inégalités, il va bien falloir que nos normes évoluent.Nous ne devons pas avoir des réflexes conservateurs afin de ne pas freiner le développement économique potentiel, mais l\u2019IA ne peut pas remettre en cause l \u2019essence de notre modèle social.» Pour y parvenir, la recherche en IA et son développement devront finir par être plus inclusifs qu\u2019ils ne le sont aujourd\u2019hui, croit Mme Tessier.Peu de femmes et encore moins de minorités participent aujourd\u2019hui à ce mouvement, présent presque exclusivement dans les pays du Nord.De quoi alimenter des préjugés de nature à faire perdurer, voire creuser les injustices et les discriminations.« Les robots ne sont ni des amis ni des ennemis de l\u2019homme, conclut Ér ic Lava l lée .I l s sont ce que nous faisons d\u2019eux.Comme pour toute technologie , i l nous faut nous assurer de bien apprivoiser l\u2019IA et de l\u2019utiliser à bon escient afin qu\u2019elle demeure bénéfique pour la société.» LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 INTELLIGENCE ARTIFICIELLE D 5 Avec les progrès de l\u2019IA, des débats sur la personnalité juridique et la responsabilité civile des robots ont débuté.Faut-il légiférer afin d\u2019assurer une cohabitation harmonieuse et durable entre les robots et les humains?Les robots ; ni amis ni ennemis « [Les robots] sont ce que nous faisons d\u2019eux » FRANK V.UNSPLASH L\u2019IA, c\u2019est aussi la promesse de gros gains économiques, tant pour les entreprises que pour les gouvernements, et donc au bout du compte, pour les populations.Comment imaginer dès lors que cette Déclaration, qui restreint les possibles, sera suivie d\u2019effets?C\u2019est une question qui est légitime, mais qui est vieille comme le monde dès que l\u2019on parle d\u2019éthique.Parler d\u2019éthique, c\u2019est forcément parler de choses qui contraignent les gens et les organisations.Si on avait posé la même question au moment de la Déclaration des droits de l\u2019homme, si on s\u2019était demandé à ce moment-là si les dirigeants allaient accepter, elle n\u2019aurait jamais vu le jour.Et puis, je crois que, contrairement à d\u2019autres industries, ce secteur a tout intérêt à faire en sorte que l\u2019IA soit acceptée, donc acceptable et donc éthique.Si les usagers se méfient et se détournent de ces outils, ça signifie moins de données.Or le principe même du bon fonctionnement des algorithmes, c\u2019est de les nourrir avec des données les plus massives possible.Et du point de vue des gouvernements?Ils doivent à la fois faire en sorte de protéger les droits des citoyens tout en ne contraignant pas trop le milieu économique pour ne pas mettre un frein à l\u2019innovation.Il y a donc un équilibre à trouver.Les gouvernements doivent s\u2019emparer des principes de la Déclaration, mais aussi des recommandations qui l\u2019accompagnent afin de légiférer.Nous comptons aussi beaucoup sur les ordres professionnels parce qu\u2019ils ont un fort pouvoir normatif et parce que, selon le secteur d\u2019activité, les principes ne s\u2019appliquent pas forcément de la même façon.On se rend compte que les citoyens sont à l\u2019aise avec le fait de par tager leurs données avec le système de santé parce qu\u2019ils comprennent les bienfaits qui pourraient en découler.Ce n\u2019est pas la même chose lorsque l\u2019objectif est de leur vendre un produit.C\u2019est donc du cas par cas\u2026 Les principes ne sont pas hiérarchisés.Le dernier n\u2019est pas moins important que le premier.Il est possible, selon les circonstances, d\u2019attribuer plus de poids à l\u2019un plutôt qu\u2019à un autre, ou de considérer qu\u2019un principe est plus pertinent qu\u2019un autre.Mais je crois que le principe de responsabilité est un impératif.L\u2019humain demeure responsable des faits et gestes de la machine, et il doit toujours pouvoir reprendre la main.Si l\u2019humain n\u2019est pas responsable, personne ne l\u2019est et c\u2019est le règne de l\u2019arbitraire.J\u2019insiste sur le fait que le plus gros risque, c\u2019est la bureaucratisation par l\u2019IA.Ça va devenir problématique si on considère que l\u2019on a un algorithme très puissant, que celui-ci détermine qu\u2019une personne n\u2019a pas le droit à telle prestation sociale et qu\u2019il n\u2019y a aucun recours.SUITE DE LA PAGE D 3 IA RESPONSABLE L\u2019humain demeure responsable des faits et gestes de la machine, et il doit toujours pouvoir reprendre la main LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 D 6 INTELLIGENCE ARTIFICIELLE Enjeux éthiques Pour une IA bienveillante L\u2019intelligence artificielle est déjà partout dans nos vies et elle le sera de plus en plus.Pour le meilleur ?Pas si les questions éthiques ne sont pas placées au cœur des discussions.Coups d\u2019œil sur une poignée d\u2019enjeux, tous domaines confondus, sur lesquels plusieurs se penchent actuellement pour garder le meilleur de l\u2019IA, et éviter le pire.H É L È N E R O U L O T - G A N Z M A N N Collaboration spéciale IA et démocratie Et si l\u2019IA nourrissait la tentation autoritaire, mettant ainsi à mal nos démocraties ?Cer tains chercheurs estiment que cela n\u2019est pas pur fantasme et qu\u2019au nom de la sécurité intérieure, plusieurs pratiques menaçant les liber tés civiles ont déjà cours à différents degrés dans les démocraties occidentales.L\u2019efficacité des outils algorithmiques de surveillance, notamment la reconnaissance faciale combinée au croisement de vastes collections de données personnelles, peut certes améliorer la sécurité.Mais sans garde-fous, elle peut aussi transformer tout gouvernement en une sorte d\u2019État policier.IA et affaires militaires L\u2019une des plus grandes peurs des citoyens par rapport à l\u2019IA demeure le développement d\u2019armes tellement puissantes et autonomes qu\u2019elles annihileraient la planète sans que l\u2019humain puisse rien y faire.Du pur scénario hollywoodien ?Aux Nations unies, quelques pays viennent en tout cas de bloquer la mise en place d\u2019un traité d\u2019in- t e r d i c t i o n d e s s y s t è m e s d\u2019armes létaux autonomes, plus communément appelés « robots tueurs ».Mais l\u2019IA appliquée à la défense, c\u2019est aussi la promesse de sauver des vies tant militaires que civiles, l\u2019analyse de renseignements massifs par des algorithmes permettant l\u2019amélioration de la détection de menaces.IA et immigration Le gouvernement fédéral expérimente l\u2019utilisation d\u2019une nouvelle génération de logiciels intelligents pour filtrer et traiter les demandes d\u2019immigration.Une pratique cer tes ef ficace, mais à ne pas prendre à la légère.Un rapport indépendant, rédigé par le Citizen Lab de l\u2019Université de Toronto, conclut en effet que l\u2019utilisation insensible de ces outils peut non seulement mener à de la discrimination et à l\u2019atteinte à la vie privée et aux droits des candidats à l\u2019immigration, mais aussi entraîner des « conséquences mortelles » pour les immigrants et les réfugiés. LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 INTELLIGENCE ARTIFICIELLE D 7 L\u2019intelligence arti?cielle peut-elle renforcer les inégalités ?Des technologies de reconnaissance faciale plus fiables avec les hommes blancs qu\u2019avec les femmes noires, des algorithmes de ciblage publicitaire qui proposent aux femmes des offres d\u2019emploi moins rémunérées, ou encore des outils de traduction qui reproduisent des stéréotypes sexistes : comment expliquer que l\u2019intelligence artificielle (IA) puisse renforcer certaines inégalités sociales?Les systèmes d\u2019IA, qui ne sont après tout qu\u2019une combinaison de données, d\u2019algorithmes et de calcul des ordinateurs ne sont-ils pas neutres?Lorsqu\u2019on met de côté les clichés et les fantasmes, on s\u2019aperçoit que les choses sont un peu plus complexes qu\u2019il n\u2019y paraît.La question de la neutralité des algorithmes intéresse de plus en plus les chercheurs.La possibilité de biais dans l\u2019exploitation des données est d\u2019autant plus préoccupante que l\u2019IA est appelée à informer des décisions humaines importantes, comme recruter un.e employé.e ou accorder une liberté conditionnelle.Ainsi, en 2016, l\u2019organisme Propublica révélait que des logiciels utilisés par la justice américaine pour évaluer les risques de récidive de prévenus surévaluaient largement ceux des Afro-Américains.Dans son livre Algorithmes: la bombe à retardement, Cathy O\u2019Neil présentent plusieurs cas analogues.Or, les membres des groupes minorisés ou marginalisés sont particulièrement vulnérables à ce phénomène qui menace d\u2019accentuer l\u2019inégalités des chances (moins d\u2019opportunités d\u2019emplois bien rémunérés pour les femmes par exemple) tout en perpétuant des stéréotypes qui contribuent à les maintenir : ainsi, en 2015, le système de reconnaissance faciale de Google avait associé l\u2019étiquette \u201cgorille\u201d à une photo d\u2019un couple afro-américain.Comment expliquer ces biais?Les sources sont multiples.Bien souvent les algorithmes sont entraînés sur des données déjà biaisées, qu\u2019il s\u2019agisse de texte, d\u2019images ou de voix.Les outils de reconnaissance faciale, par exemple, \u201capprennent\u201d à partir de banques de données où les hommes blancs sont sur-représentés et les femmes noires sous-représentées.De même, les algorithmes de traduction s\u2019entraînent sur des textes qui véhiculent également leur lot de stéréotypes sexistes et racistes.Pas très étonnant que les outils de traitement du langage associent plus volontier au masculin les termes de CEO et au féminin ceux de secrétaire ou d\u2019infirmier.Dans la plupart des cas, ces biais ne sont pas intentionnels et les concepteurs des systèmes d\u2019IA font de leur mieux pour les corriger.Mais encore faut-il qu\u2019ils (et elles?) perçoivent le problème.Cela demande une vraie diversité.La sous-représentation des femmes dans le domaine (estimée à moins de 13,5 % dans certaines branches de l\u2019IA), représente par exemple un frein majeur à la détection des biais dans le développement des technologies.La bonne nouvelle, c\u2019est que de plus en plus de projets liés au «débiaisage» des données ou des algorithmes et à la promotion de la diversité émergent dans l\u2019industrie et les universités.Ainsi, à Montréal, le programme AI for Social Good soutient le développement des compétences et l\u2019employabilité en IA d\u2019étudiantes en informatique tout en engageant les participantes à réfléchir aux enjeux éthiques et sociaux du domaine.Fruit de la cohorte 2018, le projet Biasly vise spécifiquement à détecter les biais sexistes dans les textes.En juin 2019, IVADO et le MILA proposeront leur première école d\u2019été sur les biais et les discriminations en IA.Voilà de quoi sensibiliser le milieu aux dimensions techniques et éthiques de cet enjeu essentiel pour notre avenir.Jihane Lamouri - Coordonnatrice à la diversité, IVADO Martin Gibert - Chercheur en éthique, CRÉ/IVADO IA et information En novembre dernier, la Chine dévoilait deux présentateurs vir tuels de journaux télévisés.Les jour nalistes auraient- i ls tous du souci à se faire ?L\u2019IA peut aujourd\u2019hui collecter, traiter, analyser et dif fuser de l\u2019information, et sans la puissance des algorithmes, les scandales tels que ceux dévoilés par les Panama Papers n\u2019auraient pas pu être mis au jour à une telle échelle.Cela pose cependant la question de la responsabilité éditoriale.Le contrôle humain dans la vérification de la nouvelle devrait toujours être la règle, bien que, dans le contexte de crise que vivent les médias, la tentation d\u2019automatiser certaines tâches soit grande.IA et vie privée Tous nos faits et gestes sont désormais documentés.À la maison, au travail, dans la rue, on ne compte plus les dispositifs de collecte de données acquises dans un cadre public\u2026 et utilisées à des fins commerciales.Des dispositifs qui s\u2019attaquent également aux plus vulnérables d\u2019entre nous.Dans un rappor t de recherche publié en novembre, Option Consommateurs estime par exemple que la vie privée des enfants qui utilisent des jouets intelligents est mal protégée.Des failles de sécurité informatique ont en effet permis à des pirates d\u2019accéder aux données recueillies par certains appareils.Avant de laisser le père Noël déposer un jouet connecté sous le sapin, Option consommateurs recommande de se renseigner sur les pratiques du fabricant et de choisir des jouets qui respectent les dernières règles en matière de vie privée sur Internet.IA et enseignement L\u2019IA permet de personnaliser les apprentissages, chacun avançant à son propre rythme en fonction de ses forces et de ses faiblesses.De quoi permettre le remplacement de tous les professeurs par des robots ?Pas si vite ! D\u2019abord, lorsque l\u2019apprentissage vise la créativité, l\u2019ordinateur ne peut faire un meilleur travail qu\u2019un enseignant, au moins pour l\u2019instant.Mais surtout, avant de se débarrasser de sa masse salariale, l\u2019État devra se rappeler que le contact humain est à la base de la persévérance scolaire.Et que l\u2019enseignant apporte une dimension sociale que la machine ne peut fournir.IA et santé L\u2019IA est au cœur de la médecine du futur, avec les opérations assistées, le suivi des patients à distance, les prothèses intelligentes, les traitements personnalisés, etc.Dif ficile de s\u2019opposer à une telle promesse d\u2019avenir\u2026 mais des voix s\u2019élèvent pour demander une meilleure protection des données médicales pour le moins intimes.L\u2019idée que celles-ci puissent être utilisées à d\u2019autres fins, notamment pour évaluer l\u2019admissibilité à l\u2019assurance maladie ou à une assurance vie, inquiète particulièrement.La question de la responsabilité des professionnels de santé en cas d\u2019erreur des outils d\u2019IA revient également fréquemment dans les débats. LE DEVOIR, LES SAMEDI 8 ET DIMANCHE 9 DÉCEMBRE 2018 D 8 INTELLIGENCE ARTIFICIELLE Depuis quelques années, l\u2019usage de l\u2019intelligence artificielle (IA) dans le domaine juridique modifie tant la vie quotidienne des praticiens que les fondements du domaine.Il importe alors de se pencher sérieusement sur les enjeux éthiques émergents.T E X T E C O L L E C T I F * L a disponibilité de grands corpus de documents juridiques (législation, jurisprudence, détails d\u2019affaires pénales, etc.) a permis de créer des moteurs de recherche renforcés par des systèmes d\u2019apprentissage automatique.Ces outils sont maintenant utilisés par les avocats pour trouver les informations pertinentes beaucoup plus efficacement que par le passé.En limitant le temps nécessaire à la fouille de la jurisprudence, ils ont une influence profonde sur la pratique quotidienne des professionnels du droit.Ils sont aussi sur la sellette, car ils automatisent une partie du travail et potentiellement de la prise de décision.Un premier défi consiste donc à réfléchir à la manière dont les humains se serviront des systèmes basés sur l\u2019IA dans des contextes juridiques de manière socialement acceptable.L\u2019avènement de la justice prédictive a également un impact profond sur le système juridique.Ainsi, plusieurs États américains utilisent déjà un logiciel tel que l\u2019outil Compas pour prédire le risque de récidive d\u2019un détenu.Même si la décision finale concernant la libération anticipée est toujours prise par un humain, il s\u2019agit d\u2019un exemple flagrant d\u2019une situation dans laquelle les prédictions obtenues par un algorithme ont un fort impact sur les individus.Cette situation soulève de nombreuses questions éthiques en ce qui concerne les discriminations possibles, la transparence et l\u2019inter- prétabilité des décisions.L\u2019accès à des logiciels permettant d\u2019anticiper l\u2019issue d\u2019une affaire et le montant de l\u2019indemnisation probable a conduit au développement de l\u2019optimisation juridique qui consiste à plaider une affaire dans les conditions les plus favorables.Un avocat peut par exemple décider de plaider sa cause dans une juridiction particulière, car le logiciel a prédit que ses chances de gagner la cause sont plus élevées à cet endroit en raison de possibles préjugés récurrents des juges dans cette juridiction.En matière d\u2019équité, l\u2019écar t entre les personnes représentées par des juristes ayant accès ou non à un outil d\u2019optimisation augmente, de même que le déséquilibre de pouvoir entre les équipes juridiques selon leur accès aux logiciels qui incluent des systèmes basés sur l\u2019IA.Tous ces facteurs peuvent contribuer à la croissance des inégalités d\u2019accès à la justice entre les citoyens.Pour autant, il est indispensable de décongestionner le système juridique et de renforcer l\u2019objectivité des décisions judiciaires.Le projet LegalIA Une équipe de recherche dirigée par des professeurs de l\u2019UQAM s\u2019est attaquée à ce problème en créant le projet LegalIA.Ce projet intersectoriel est financé par les Fonds de recherche du Québec dans le cadre du programme AUDACE.L\u2019équipe étudie comment l\u2019IA peut être intégrée d\u2019une façon socialement acceptable aux outils technologiques utilisés dans le domaine du droit pour produire un ensemble de lignes directrices et de principes de bonne gouvernance.Elle met progressivement en œuvre les résultats de cette étude en créant Leia, un prototype de logiciel basé sur l\u2019IA, destiné aux citoyens, aux avocats et aux juges.Leia interagira directement au moyen du langage naturel, comme un robot conversationnel, et analysera les demandes des citoyens pour leur fournir des explications dans un langage non technique et un accès direct aux organismes de soutien.Leia aidera l\u2019avocat à trouver efficacement Pour un développement éthique et responsable de l\u2019IA en droit des documents pertinents pour une affaire, fournira une analyse sémantique de leur contenu et présentera les résultats potentiels en fonction de la manière dont le cas est construit.Enfin, le juge utilisera les capacités du système à analyser un cas particulier à la lumière d\u2019affaires antérieures similaires, débarrassées des partis pris et de la discrimination.Le système Leia est bâti en s\u2019intéressant initialement aux situations de harcèlement psychologique sur le lieu de travail.L\u2019équipe, qui rassemble des chercheuses et des chercheurs en informatique, en droit, en éthique et en linguistique, travaille notamment en partenariat avec la Société québécoise d\u2019information juridique (SOQUIJ) et bénéficie de l\u2019appui du Service aux POINT DE VUE » « Il est indispensable de renforcer l\u2019objectivité des décisions judiciaires » collectivités de l\u2019UQAM, dont les connaissances et l\u2019expérience dans le domaine des situations de harcèlement psychologique réelles remontent à plusieurs décennies.Selon nous, la création de Leia et les réflexions qui mènent à son développement sont des étapes importantes vers l\u2019amélioration de l\u2019accès à la justice pour tous face aux problèmes de harcèlement psychologique.* Les signataires : Hugo Cyr (UQAM), Laurence Léa Fontaine (UQAM), Sébastien Gambs (UQAM), Leila Kosseim (U.Concor- dia), Dominic Martin (UQAM), Nicolas Merveille (UQAM), Marie-Jean Meurs (UQAM), Elizabeth Ann Smith (UQAM), Alain Tapp (U.Montréal) Ce cahier a été produit par l\u2019équipe des publications spéciales du Devoir, grâce au soutien des annonceurs qui y figurent.Ces derniers n\u2019ont cependant pas de droit de regard sur les textes.La rédaction du Devoir n\u2019a pas pris part à la production de ces contenus."]
de

Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.

Lien de téléchargement:

Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.