I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle

Jean-François Sénéchal, Frédérick Plamondon, David Beauchemin, Ève Gaumond, Sylvain Munger, Shirley Plumerand, Véronique Tremblay et Stéphane Mineo.
undefined
May 20, 2021 • 42min

Épisode 16 - Intelligence artificielle et santé mentale

Retour sur notre rencontre avec Carl Maria MörchEn vrac:AI et infodémiologieAI et réseaux socionumériquesLe Canada protocoleLe rapport entre droit et moraleDe la généralisation des moyensLes faux positifs et les prophéties auto réalisatricesL'effet WertherLe suicide et les possibles interventions AIProduction et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Fredérick PlamondonCanada Protocol: an ethical checklist for the use of Artificial Intelligence in Suicide Prevention and Mental Health Support the show
undefined
May 6, 2021 • 51min

Épisode 15 - Carl Maria Mörch - AI, suicide, santé publique et santé mentale

Dans cet épisode d’IA Café, nous recevons, et vous vous apprêtez à prendre un café avec Carl Maria MörchEt si l'AI nous servait d'outil de prévention et de surveillance de la santé mentale de la population et des comportements suicidaires? Quelles seraient les balises éthiques nécessaires pour encadrer de tels outils? C'est ce dont nous discutons avec Carl Maria Mörch!Carl-Maria Mörch est titulaire d'une maîtrise en psy. (EPP-ICP, France) et d'un doctorat en psychologie communautaire (UQÀM, Canada).  De façon générale, il s’intéresse au développement responsable des technologies dans la société, en santé et en psychologie.  Ses recherches sont orientées vers la création d’outils en éthique de l’IA.  Ses sujets préférés : la prévention du Suicide, le Dark Web, le Big Data, l’Intelligence Artificielle.Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Fredérick PlamondonInvité: Carl Maria Mörch, Ph.D. Support the show
undefined
Apr 22, 2021 • 45min

Épisode 14 - No fault! Daniel Gardner - De la responsabilité des véhicules IAutonomes

Un grand pouvoir engendre de grandes responsabilités, nous disait ce vieux Ben Parker. Dans cet épisode d’IA Café, nous recevons un expert du droit qui se passionne depuis quelques années pour les véhicules autonomes, l‘intégration d’IA dans ces véhicules et la notion de responsabilité (imputabilité) dans un contexte : M. Daniel Gardner.  Au programme:De la définition de «véhicule autonome»- De la Google car aux navettes KeolisDu «no fault» -  Problème réglé?De la responsabilité civile (au Québec) - La cadre normatif est-il prêt?De la responsabilité (ailleurs dans le monde) Quelques mythes entourant les véhicules autonomes Production et animation: Jean-François Sénéchal, Ph.DCollaborateur: David Beauchemin, Ève GaumondInvité: Daniel Gardner, Ph.D. Support the show
undefined
Apr 8, 2021 • 57min

Épisode 13 - Véhicules I.A.utonomes - Premières analyses et réflexions

Dans cet épisode, nous souhaitions partager avec vous nos premières réflexions et premières enquêtes sur les applications AI dans le domaine des voitures et véhicules autonomes. Ce sujet encapsule, peut-être encore mieux que tous les autres, la hauteur de nos ambitions en AI, mais aussi nos peurs et nos craintes. Plusieurs enjeux éthiques, sociaux, techniques, juridiques sont associés à cette technologie. Et quoi de mieux que prendre un exemple concret, appliqué, autour duquel on peut ajouter nos réflexions et questions. Du moins c’est le programme que David et moi nous vous avons préparé dans cet épisode.Thèmes:Défis techniquesEnjeux éthiquesLe dilemme du tramway (trolley problem) et sa version moderne proposée par le MITDes voies classiques d'argumentation morale (déontologisme et conséquentialisme) et de leur transpostions possible (ou non) aux VA.Production et animation: Jean-François Sénéchal, Ph.DCollaborateur: David Beauchemin, M. Sc.Références:-          https://www.moralmachine.net/hl/fr Support the show
undefined
Mar 25, 2021 • 44min

Épisode 12 - Debriefing (Cécile Petitgand) - IA, Covid, Santé. Pas le temps de niaiser!

Retour sur notre rencontre avec Cécile Petitgand et les applications AI en santé!Nous avons révisé plusieurs thèmes.Notons: Le potentiel de l'AI en santéLes craintes (fondées ou non) associées à l'AI en santéLes principaux enjeux éthiques et sociaux de l'AI en santéLes biaisLes attentes (parfois démesurées en AI)Bonne écoute! Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Mar 11, 2021 • 37min

Épisode 11 - Cécile Petitgand - L'intelligence artificielle dans les établissements de santé

Nous avons enregistré cet épisode à l'automne 2020. Superbe rencontre avec cette experte en AI qui a fait le saut sur le plus périlleux des terrains: dans nos établissements de santé!Sur le cv de Cécile Petitgand on lit : « Mon objectif est de mettre mon expertise et mes compétences en recherche et gestion au service de l'intégration responsable de l'innovation et de l'intelligence artificielle dans les établissements de santé». Nous avons abordé avec elle plusieurs thèmes.Notons: Le potentiel de l'AI en santéLes craintes (fondées ou non) associées à l'AI en santéLes principaux enjeux éthiques et sociaux de l'AI en santéLes biaisLa déclaration de MontréalLes attentes (parfois démesurées en AI)Bonne écoute! Et merci encore, Cécile!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Feb 25, 2021 • 1h 4min

Épisode 10 - Actualités: Clearview AI, Gebru, DEDA.

Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu. Dans cet épisode:Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).Les articles cités sont ici:Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001 Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503. Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology.  Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493. Support the show
undefined
Feb 11, 2021 • 52min

Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine

Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.  Thèmes abordés: -          Une IA humaine, trop humaine.Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines. -          Les biais psychosociaux.Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).-          Une IA qui reflète la morale et la culture des maîtres. Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?-          Une IA difficile à intégrer au monde du travail.La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions? Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Jan 28, 2021 • 51min

Épisode 8 - Justine Dima - Dis-moi qui tu embauches, et je saurai qui tu es!

Quelques mois avant le début de la pandémie au Québec,  nous recevions, dans nos studios, une force montante de l'intelligence artificielle: Justine Dima.Justine était alors étudiante au doctorat en management à l’Université Laval. Son sujet de thèse:  « Le bon et le mauvais côté de l’intelligence artificielle : ses effets sur les travailleurs et les équipes de travail ».  Dans ses travaux, Justine souhaite « Déterminer comment les travailleurs perçoivent les effets de l’utilisation de l’intelligence artificielle, quelles sont les stratégies que les travailleurs mettent en œuvre pour faire face à ces effets et quels sont les conséquences positives et/ou négatives liés à l’utilisation de l’intelligence artificielle». Rien de moins!Nous avons abordé avec elle plusieurs thèmes.Notons: Mobilisation des IA en ressources humaines. Sélection de cv pertinents lors du processus d’embauche.  Recherche de candidats. Analyse de cv pour le candidat et l'employeur. Des difficultés d'intégration des IA dans le monde du travail et des ressources humaines.Biais psychosociaux, processus d'embauche et reproduction (intensification) des biais via l'intelligence artificielle.Bonne écoute! Et merci encore, Justine!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Jan 14, 2021 • 49min

Épisode 7 - Le Bye Bye d'Element AI - Nos prix Lovelace et IArk (partie 2)

Deuxième partie de nos prix Lovelace et IArk.Rappelons le concept. Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. Les prix Lovelace. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace.La contrepartie: nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!---Dans cet épisode:Pour Frédérick:Prix Lovelace à Timnit Gebru (encore!). Fred résume deux de ses contributions à la réflexion sur les enjeux éthiques et sociaux de l'intelligence artificielle.Prix IArk à «La réponse Google AI (et Jeff Dean ) dans l'Affaire Gebru vs Google,  et parce qu'il mérite bien un deuxième prix IArk.Pour JF: Prix Lovelace à Deepmind, le laboratoire d’Alphabet (mère de Google). Le laboratoire s’est servi des algorithmes d’AlphaFold (Le jeu de Go : une pierre "blanche" dans l‘histoire de l’AI) pour résoudre un problème insoluble depuis 50 ans: la prédiction de la forme exacte des protéines.Prix IArk à «la vente d’Élément AI au développeur de logiciels californien la compagnie ServiceNow». Articles cités:Gebru et al. (2018). Datasheets for Datasets, ArXiv  Gebru et al. (2020). « Race and Gender » dans Oxford Handbook of Ethics of AI Deepmind, (novembre 2020)  AlphaFold: a solution to a 50-year-old grand challenge in biologyKarim Benessaieh, (novembre 2020)  Element AI acquise par une firme californienneProduction, animation et collaboration: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app