I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle

Jean-François Sénéchal, Frédérick Plamondon, Ève Gaumond, Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Mineo, Benjamin Leblanc et Marie-Ève Vachon Savary.
undefined
Apr 22, 2021 • 45min

Épisode 14 - No fault! Daniel Gardner - De la responsabilité des véhicules IAutonomes

Un grand pouvoir engendre de grandes responsabilités, nous disait ce vieux Ben Parker. Dans cet épisode d’IA Café, nous recevons un expert du droit qui se passionne depuis quelques années pour les véhicules autonomes, l‘intégration d’IA dans ces véhicules et la notion de responsabilité (imputabilité) dans un contexte : M. Daniel Gardner.  Au programme:De la définition de «véhicule autonome»- De la Google car aux navettes KeolisDu «no fault» -  Problème réglé?De la responsabilité civile (au Québec) - La cadre normatif est-il prêt?De la responsabilité (ailleurs dans le monde) Quelques mythes entourant les véhicules autonomes Production et animation: Jean-François Sénéchal, Ph.DCollaborateur: David Beauchemin, Ève GaumondInvité: Daniel Gardner, Ph.D. Support the show
undefined
Apr 8, 2021 • 57min

Épisode 13 - Véhicules I.A.utonomes - Premières analyses et réflexions

Dans cet épisode, nous souhaitions partager avec vous nos premières réflexions et premières enquêtes sur les applications AI dans le domaine des voitures et véhicules autonomes. Ce sujet encapsule, peut-être encore mieux que tous les autres, la hauteur de nos ambitions en AI, mais aussi nos peurs et nos craintes. Plusieurs enjeux éthiques, sociaux, techniques, juridiques sont associés à cette technologie. Et quoi de mieux que prendre un exemple concret, appliqué, autour duquel on peut ajouter nos réflexions et questions. Du moins c’est le programme que David et moi nous vous avons préparé dans cet épisode.Thèmes:Défis techniquesEnjeux éthiquesLe dilemme du tramway (trolley problem) et sa version moderne proposée par le MITDes voies classiques d'argumentation morale (déontologisme et conséquentialisme) et de leur transpostions possible (ou non) aux VA.Production et animation: Jean-François Sénéchal, Ph.DCollaborateur: David Beauchemin, M. Sc.Références:-          https://www.moralmachine.net/hl/fr Support the show
undefined
Mar 25, 2021 • 44min

Épisode 12 - Debriefing (Cécile Petitgand) - IA, Covid, Santé. Pas le temps de niaiser!

Retour sur notre rencontre avec Cécile Petitgand et les applications AI en santé!Nous avons révisé plusieurs thèmes.Notons: Le potentiel de l'AI en santéLes craintes (fondées ou non) associées à l'AI en santéLes principaux enjeux éthiques et sociaux de l'AI en santéLes biaisLes attentes (parfois démesurées en AI)Bonne écoute! Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Mar 11, 2021 • 37min

Épisode 11 - Cécile Petitgand - L'intelligence artificielle dans les établissements de santé

Nous avons enregistré cet épisode à l'automne 2020. Superbe rencontre avec cette experte en AI qui a fait le saut sur le plus périlleux des terrains: dans nos établissements de santé!Sur le cv de Cécile Petitgand on lit : « Mon objectif est de mettre mon expertise et mes compétences en recherche et gestion au service de l'intégration responsable de l'innovation et de l'intelligence artificielle dans les établissements de santé». Nous avons abordé avec elle plusieurs thèmes.Notons: Le potentiel de l'AI en santéLes craintes (fondées ou non) associées à l'AI en santéLes principaux enjeux éthiques et sociaux de l'AI en santéLes biaisLa déclaration de MontréalLes attentes (parfois démesurées en AI)Bonne écoute! Et merci encore, Cécile!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Feb 25, 2021 • 1h 4min

Épisode 10 - Actualités: Clearview AI, Gebru, DEDA.

Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu. Dans cet épisode:Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).Les articles cités sont ici:Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001 Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503. Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology.  Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493. Support the show
undefined
Feb 11, 2021 • 52min

Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine

Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.  Thèmes abordés: -          Une IA humaine, trop humaine.Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines. -          Les biais psychosociaux.Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).-          Une IA qui reflète la morale et la culture des maîtres. Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?-          Une IA difficile à intégrer au monde du travail.La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions? Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Jan 28, 2021 • 51min

Épisode 8 - Justine Dima - Dis-moi qui tu embauches, et je saurai qui tu es!

Quelques mois avant le début de la pandémie au Québec,  nous recevions, dans nos studios, une force montante de l'intelligence artificielle: Justine Dima.Justine était alors étudiante au doctorat en management à l’Université Laval. Son sujet de thèse:  « Le bon et le mauvais côté de l’intelligence artificielle : ses effets sur les travailleurs et les équipes de travail ».  Dans ses travaux, Justine souhaite « Déterminer comment les travailleurs perçoivent les effets de l’utilisation de l’intelligence artificielle, quelles sont les stratégies que les travailleurs mettent en œuvre pour faire face à ces effets et quels sont les conséquences positives et/ou négatives liés à l’utilisation de l’intelligence artificielle». Rien de moins!Nous avons abordé avec elle plusieurs thèmes.Notons: Mobilisation des IA en ressources humaines. Sélection de cv pertinents lors du processus d’embauche.  Recherche de candidats. Analyse de cv pour le candidat et l'employeur. Des difficultés d'intégration des IA dans le monde du travail et des ressources humaines.Biais psychosociaux, processus d'embauche et reproduction (intensification) des biais via l'intelligence artificielle.Bonne écoute! Et merci encore, Justine!Production et animation: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Jan 14, 2021 • 49min

Épisode 7 - Le Bye Bye d'Element AI - Nos prix Lovelace et IArk (partie 2)

Deuxième partie de nos prix Lovelace et IArk.Rappelons le concept. Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. Les prix Lovelace. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace.La contrepartie: nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!---Dans cet épisode:Pour Frédérick:Prix Lovelace à Timnit Gebru (encore!). Fred résume deux de ses contributions à la réflexion sur les enjeux éthiques et sociaux de l'intelligence artificielle.Prix IArk à «La réponse Google AI (et Jeff Dean ) dans l'Affaire Gebru vs Google,  et parce qu'il mérite bien un deuxième prix IArk.Pour JF: Prix Lovelace à Deepmind, le laboratoire d’Alphabet (mère de Google). Le laboratoire s’est servi des algorithmes d’AlphaFold (Le jeu de Go : une pierre "blanche" dans l‘histoire de l’AI) pour résoudre un problème insoluble depuis 50 ans: la prédiction de la forme exacte des protéines.Prix IArk à «la vente d’Élément AI au développeur de logiciels californien la compagnie ServiceNow». Articles cités:Gebru et al. (2018). Datasheets for Datasets, ArXiv  Gebru et al. (2020). « Race and Gender » dans Oxford Handbook of Ethics of AI Deepmind, (novembre 2020)  AlphaFold: a solution to a 50-year-old grand challenge in biologyKarim Benessaieh, (novembre 2020)  Element AI acquise par une firme californienneProduction, animation et collaboration: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Dec 18, 2020 • 1h 3min

Épisode 6 - Le Noël de Timnit Gebru - Nos prix Lovelace et IArk (partie 1)

Le concept:Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. Le concept est simple. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace (évidemment en l'honneur d'Ada Lovelace).La contrepartie, ce sera nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sera nos prix citrons, nos navets et nanars, nos prix IgNobel. Ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!C’est le concept.Essayons-le !---Dans cet épisode:Pour David:Prix Lovelace à Timnit Gebru dans l’affaire Timnit Gebru vs GoogliathPrix IArk à Google (et jeff Dean AKA Le vilain) dans la même affairePour Ève: Prix Lovelace au projet de Loi C11 Prix IArk à Google dans l'affaire Timnit Gebru vs GoogleAutre thème abordé:La place de l'éthique en AI - et le rôle de l'éthicien au sein des compagnies qui développent ces applications AI.Articles cités:https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/The invention of Ethical AI The problem with AI ethics Résumé législatif du projet de loi C-11 : Loi modifiant la Loi sur le droit d’auteur (accès des personnes ayant des déficiences perceptuelles aux œuvres ou autres objets du droit d’auteur protégés) https://lop.parl.ca/sites/PublicWebsite/default/fr_CA/ResearchPublications/LegislativeSummaries/421C11E Production, animation et collaboration: Jean-François Sénéchal, Ph.DCollaborateurs: David Beauchemin, Ève Gaumond, Frédérick PlamondonSupport the show
undefined
Dec 3, 2020 • 1h 2min

Épisode 5 - Un nouvel hiver en Intelligence artificielle? Retour sur l'entrevue de Darwin Brochero.

Retour sur l'entrevue de Darwin Brochero. JF, David et Fred discutent de l'entrevue et des thèmes abordés avec Darwin.1. «L'intelligence artificielle n'existe pas» (Luc Julia) . Vraiment? Pourquoi tant de malaise à se désigner comme «chercheur en IA» ? Pourquoi finance-t-on l'IA si personne n'en fait vraiment. Avant de nier l’existence d’une chose,  du moins avec une approche philosophique, il faut d’abord la définir.  2. Donner du sens au chaos .  Stochastique et probabilisme.. Contingence et nécessité.  «Hasard et la nécessité » (Jacques Monod). Les nouveaux modèles en IA permettent de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petit échelle, mais qui sont régis par des paterns lorsqu’on les observe à grand échelle.  Nos modèles scientifiques classiques nous ont permis de mieux comprendre, mieux prévoir et de mieux prédire. Et les nouveaux modèles en IA permettent d’accroître encore davantage, en précision et puissance, ce pouvoir prédictif.  3. De l'éducation. De quelle éducation avons-nous besoin pour saisir, dans leurs intégralités, les problèmes éthiques et sociétaux associés à l'intelligence artificielle? Les universités sont-elles conçues pour résoudre de tels problèmes? Quoi faire pour s'assurer, que bien en amont, les enjeux éthiques et moraux soient mieux pensés par ceux et celles qui conçoivent les applications AI de demain?4. Croissance et décroissance (un nouvel hiver en IA?) .  Le champs de l'intelligence artificielle n'est pas né de la «dernière pluie». On se rappellera d'une grande vague d’enthousiasme envers l’IA dans les années 70 (financé par le DARPA aux USA), et que cette vague s’est estompée dans les années 80. On avait nommé «hiver» cette période de stagnation des travaux et du financement en IA. Or, le financement en IA ne cesse de croître. Si «l'hiver s’en vient», pour reprendre cette maxime des peuples du Nord (Game of Thrones), nous avons encore quelques belles saisons. Support the show

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app