Mathieu Corteel, philosophe et historien des sciences, explore les enjeux de l'intelligence artificielle et ses implications épistémologiques. Il aborde la tension entre peur et enthousiasme face à l'IA, avec des références à la bibliothèque de Babel de Borges. Gwenola Wagon, artiste et maître de conférences, discute des créations culturelles générées par l'IA, soulevant des inquiétudes sur leur qualité. Pierre Lascoumes, sociologue et juriste, met en lumière les risques liés à l'utilisation des big data et des algorithmes dans notre société.
L'intelligence artificielle doit être abordée de manière pragmatique, tenant compte de son hybridation avec les réalités sociales plutôt que de céder au technosolutionnisme ou au technofatalisme.
Mathieu Corteel met en évidence le phénomène de non-sens bien ordonné de l'IA, où les contenus générés acquièrent du sens uniquement par leur utilisation humaine, illustrant cela par l'œuvre de Borges.
Les enjeux éthiques de l'IA, notamment en matière de discrimination et d'impact social, soulignent la nécessité de réfléchir à son utilisation pour préserver la justice et l'égalité.
Deep dives
Scepticisme face à l'intelligence artificielle
L'intelligence artificielle suscite à la fois fascination et crainte, et il est essentiel d'adopter une approche sceptique pour mieux comprendre ses implications. La position de Mathieu Cortel, philosophe et historien des sciences, se refuse à la dichotomie entre technophobie et technophilie, prônant ainsi une compréhension pragmatique de l'hybridation entre l'IA et le monde social. Il souligne l'importance de réaliser que l'IA n'est rien de plus que des modèles mathématiques, souvent mal interprétés. Cette perspective aide à déconstruire les fantasmes anthropotechniques projetés sur l'IA, permettant ainsi de mieux saisir son rôle dans notre société.
Le concept de non-sens dans l'IA
Cortel introduit l'idée que l'IA crée un phénomène de non-sens bien ordonné, où des contenus générés n'ont pas de signification intrinsèque mais acquièrent du sens par leur utilisation humaine. Il fait un parallèle avec l'œuvre de Borges, 'La Bibliothèque de Babel', illustrant comment l'accumulation de contenus générés par l'IA peut conduire à une surcharge d'informations dénuées de sens clair. Les algorithmes ordonnent et hiérarchisent des symboles sans que ceux-ci ne soient véritablement signifiants, ce qui peut créer une illusion de compréhension. Cela souligne le danger d'une production culturelle générée par des IA dépassant celle des œuvres humaines, ce qui remet en question la valeur des créations originales.
Mécanismes d'illusion face à l'IA
L'épisode examine la fameuse affirmation de Blake Lemoine, un ingénieur de Google, qui a prétendu que son IA, Lambda, avait développé une conscience. Cette situation souligne comment même des experts peuvent être séduits par l'effet de surface des capacités de l'IA, en tombant dans une forme d'illusion. Cortel met en garde contre la croyance en l'IA en tant que conscience autonome, rappelant que ces systèmes reposent sur des algorithmes et des probabilités. L'obsession pour une IA forte pourrait mener à des dérives dangereuses, notamment en matière de perception publique et d'utilisation éthique de ces technologies.
Impact de l'IA sur l'éducation
L'IA influence également le domaine de l'éducation, avec des milliers d'études soutenant son intégration dans les systèmes d'apprentissage. Une recherche récente a montré qu'une IA pouvait déduire des mots observés par un bébé à partir d'images, suggérant une analogie avec l'apprentissage humain. Cortel note les risques de réduire l'apprentissage à des algorithmes, négligeant ainsi l'importance des dimensions sémantiques et imaginatives de l'éducation. Cette réduction du processus éducatif à un simple traitement algorithmique pourrait aboutir à des élèves formatés, privés de créativité et de sens critique.
Problèmes éthiques et sociaux liés à l'IA
Les questions d'éthique et d'impact social de l'IA deviennent de plus en plus préoccupantes, notamment en matière de sécurité et de justice. Des systèmes de surveillance algorithmique, comme ceux testés lors des Jeux Olympiques, soulèvent des inquiétudes concernant les libertés publiques et la violence systémique. Les algorithmes peuvent exacerber les discriminations, en se basant sur des données historiques biaisées, entraînant des arrestations dans des quartiers racisés. Ainsi, il est crucial de considérer les implications de l'usage des technologies d'IA pour garantir qu'elles n'entravent pas les principes de justice et d'égalité dans la société.
durée : 00:58:32 - La Suite dans les idées - par : Sylvain Bourmeau - Se tenant à distance du technosolutionnisme comme du technofatalisme, Mathieu Corteel propose de penser l'Intelligence Artificielle en prenant acte de son hybridation avec les mondes humains. Il est rejoint en deuxième partie par l'artiste Gwenola Wagon. - réalisation : Jean-Christophe Francis - invités : Mathieu Corteel Philosophe et historien des sciences; Pierre Lascoumes Sociologue, juriste, directeur de recherche émérite au Centre d’études européennes et de politique comparée de Sciences Po; Gwenola Wagon Artiste et maître de conférences depuis 2008 dans le département Arts Plastiques de l’Université Paris 8.
Remember Everything You Learn from Podcasts
Save insights instantly, chat with episodes, and build lasting knowledge - all powered by AI.