Pagination
Jacob, Steve, auteur
Voir le détail
Descheneau-Guay, Amélie
de’intersectionnalité .44 Tableau 1 Cadre pour’inclusion .11 Vidéo 1 L’importance des modèles signifiants .18 Vidéo 2 L’intersectionnalité .43 Vidéo 3 Les discriminations algorithmiques .52 Ce dossier présentees enjeux actuels en équité, diversité et inclusion (EDI) dans une perspective de réussite étudiante et souligne des pistes
, C.& Doutreloux, E.(2022).Pourquoi encore parler d’inclusion?Pédagogie collégiale, 35(2), 7-15.Bertail, P., Bounie, D., Clémençon, S.& Waelbroeck, P.(2019).Algorithmes : biais, discrimination et équité.Institut Mines-Télécom de France.Bilge, S.(2009).Théorisations féministes de’intersectionnalité.Diogène, 225(1), 70-88.Bissonnette
Pelletier, Guillaume, (Conseiller en éthique), auteur
algorithmique en matière d’efficacité, de productivité et de performance ne soient pas priorisés aux dépens de valeurs relatives aux relations et aux conditions de travail, telles que’autonomie,e bien-être ete respect dea vie privée des travailleurs ;a justice au travail ;’équité,a diversité et’inclusion (EDI
que des décisions automatiques ne reproduisent des discriminations ou des biais qui seraient déjà présents dansa société (Crawford et Schultz, 2014).Comme le soulignent Barocas, Hardt et al. (2017), ’équité algorithmique est complexe à formaliser et donc à garantir : il n’y a pas de définition unique
/il-y-a-urgence-a-adopter-la-loi- sur-l-intelligence-artificielle-et-les-donnees.php Bertail, Patrice, et al.(2019).Algorithmes : biais, discrimination et équité.Telecom ParisTech.https://www.telecom- paris.fr/wp-content-EvDsK19/uploads/2019/02/Algorithmes-Biais-discrimination-equite.pdf Besse, Philippe (2022).Conformité européenne
es recommandations qui en découlent au CÉCMDP.Ce comité s’est mis en placee 16 mars 2016.Dans’intervalle, depuisa création du CISSS,es demandes ont été analysées pare CÉCMDP.Le comité a recommandé’adoption d’un algorithme décisionnel pour assurera transparence et’équité danse processus d’analyse.Cet algorithme a été
Charbonneau, Sandrine, auteur
de discrimination illégitime.Mais si sa candidature n’est pas retenue en raison dea couleur de sa peau, il s’agit d’un cas de discrimination qui va à’encontre de’équité.Ainsi, un algorithme de reconnaissance faciale utilisé poure triage de candidatures et qui aurait pour résultat de rejeter des candidatures de personnes
ou augmenterlaprobabilitépourcertainespopulations?27 DéclarationdeMontréalpourledéveloppementresponsabledel’IA,op.cit.Piste 1.3 Établir ou demander des encadrements (légaux ou autres) de’IA enien aveca neutralité de’algorithme Principe éthique mobilisé Équité Questions à se poser 1. Est‑ce quea neutralité devrait s’inscrire dans un encadrement
Mathieu, Lily-Cannelle
individuelle des technologies ; • Stratégies techniques : enlevere biais à’origine, modifier ou modeleres algorithmes, adapter ce qui en sort pour faire prévaloir’équité plutôt que’égalité.Diversité culturelle • Maintien dea diversité sociale et culturelle et dea diversité des expressions culturelles ; • Présence
: quelle approche des biais algorithmiques ? », Siècle Digital.4 – Patrice Bertail, David Bounie, Stephan Clémençon et Patrick Waelbrœck (2019).« Algorithmes : biais, discrimination et équité », Télécom ParisTech.5 – Lorsque seuleses informations et données confirmant certaines opinions et hypothèses sont utilisées.6 – Lorsque
et respectée aussi bien pares programmeurs que pares utilisateurs de ces technologies pour s’assurer dea transparence des algorithmes, éviteres biais et garantir’équité des assurés.De nouvelles normes professionnelles pourraient être imposées danse secteur actuariel danse but de préciser ce qui estégitime
100, Montréal (Québec) HIV 3R9.Télécopieur : (514) 257-4089.Nous remercions touses candidats deeur intérêt eteur prions de noter que nous ne communiquerons qu'aveces personnes retenues pour une entrevue.Nous souscrivons au principe de'équité en matière d'emploi.Corporation Financière <&) Household ALGORITHME
de’ensemble des données captées et des usages qu’on en fait.Puisquees technologies centrées sures données etes systèmes de décision automatisée (SDA) ne sont pas neutres,a compréhension et’évaluation deeurs impacts sures droits dea personne constituent une procédure incontournable pour assurereur équité
Hébert, Guillaume
parvienne pour autant à plus de précision ou d’équité, car aucun algorithme ne peut rendre compte avec exactitude de décisions politiques et de chan- gements organisationnels. C’est d’autant plus vrai pour es traitements, notamment danses hôpitaux ruraux,es hôpitaux psychiatriques,es centres de réadaptation
vers des soins plus précis et personnalisés.Dans un souci de pertinence et d’équité, il est plus que jamais nécessaire de formaliser’utilisation d’algorithmes d’investigation, de traitement et de suivi, soutenus par des données probantes.L’intelligence artificielle a déjà démontré son potentiel à soutenires décisions
Corriveau, Marie, auteur
peuvent varier de quelques dixième de secondes à plusieurs jours.Donc touteses informations doivent être disponibles sous deux protocoles : une version en temps réel, une version accessible en temps différé par interrogation au serveur de marchés.3.9 L’équité entrees participants Le besoin d’équité entrees messages