Professeur émérite à la Sorbonne et membre de l'Académie des sciences morales et politiques, Daniel Andler a suivi de très près les évolutions technologiques passées et récentes des systèmes informatiques. Face aux avancées spectaculaires des dernières années, voire des derniers mois, il s'interroge sur la capacité de l'intelligence artificielle a reproduire l'intelligence humaine, réputée insaisissable. Une IA qui ne peut et ne doit prétendre qu'à résoudre des problèmes, certes de plus en plus complexes, que lui soumettent des agents humains, plutôt que de chercher à en faire des pseudo personnes munies d'une forme inhumaine de cognition. Il nous livre son opinion sur les derniers développements, évolutions... et dangers.

Le journal du Médecin : Le journal allemand Bild va remplacer plusieurs centaines d'emplois par l'IA. Or, vous écrivez que le travail et la démocratie vont être les deux domaines les plus affectés par l'intelligence artificielle...

Daniel Andler : En ce qui concerne le travail, il ne s'agit pas de rendre les métiers complètement obsolètes, à l'image des célèbres images des porteurs d'eau dans les grandes villes au moment de l'apparition de l'eau courante dans les appartements. À quelques exceptions près, les métiers ne vont pas disparaître, mais seront par contre profondément transformés: c'est déjà une évidence dans certains secteurs médicaux. Mais l'idée que les radiologues, par exemple, vont être du jour au lendemain remplacés par l'IA, est fausse, pour deux raisons. D'abord parce qu'il faudra toujours des radiologues afin d'évaluer les performances des machines. Si nous leur donnons l'exclusivité de la compétence, dès que les techniques d'imagerie se modifieront, que de nouvelles maladies ou de nouveaux symptômes apparaîtront, il n'y aura plus personne pour les interpréter et ajuster les jugements des machines.

Selon une étude récente d'un grand cabinet de consultants en marketing, nous allons perdre près de 30 millions d'emplois nets dans le monde entier du fait de l'IA. Mais ces prédictions sont spéculatives et il subsiste de nombreuses incertitudes sur ce que sont des systèmes d'IA vraiment performants et fiables. Ils ne sont pas si nombreux et pour l'instant, sont perclus de défauts qui empêchent de les déployer à des échelles industrielles. Et on ignore pour l'instant de quelle manière leur déploiement progressif dans la société pourra s'opérer.

Daniel Andler : " Selon une étude récente d'un grand cabinet de consultants en marketing, nous allons perdre près de 30 millions d'emplois nets dans le monde entier du fait de l'IA. ", Gallimard
Daniel Andler : " Selon une étude récente d'un grand cabinet de consultants en marketing, nous allons perdre près de 30 millions d'emplois nets dans le monde entier du fait de l'IA. " © Gallimard

Exosquelette mental

Peut-on dire que l'IA fonctionne un peu comme un exosquelette pour le mental?

Oui, c'est une image appropriée. Ceci dit, l'exosquelette vous permet les gestes habituels en vous aidant, par exemple si vous souffrez d'un handicap, de soulever des charges plus lourdes ou de faire des sauts au départ beaucoup plus longs que ce que vous feriez habituellement. Alors que l'intelligence artificielle court-circuite les actions humaines, va directement au but, et permet donc à l'homme d'obtenir le résultat auquel il aurait été incapable de parvenir lui-même. Le parallèle avec l'exosquelette associe parfois trop étroitement l'intelligence artificielle aux mouvements mentaux de la créature humaine. Car, dans certains cas, l'intelligence artificielle agit tout à fait autrement.

Vous taxez ChatGPT de prestidigitateur...

C'est un prestidigitateur au sens où personne ne pense que ChatGPT fait des miracles, ou qu'il s'agit d'un cerveau artificiel. En revanche, il produit des effets exactement comme un prestidigitateur: ce n'est pas de la magie, mais une production dont on ignore comment elle est possible s'il n'y a pas effectivement un cerveau derrière. De ce point de vue, cela ressemble beaucoup à la prestidigitation.

L'intelligence humaine serait-elle souvent liée à l'émotion, ce qui la différencie de l'intelligence artificielle?

C'est ce qui a interpellé un certain nombre de scientifiques, dont ma collègue Laurence Devillers qui a écrit un livre entier à ce sujet. Pour qu'elle devienne vraiment intelligente, l'IA devrait se doter de capacités émotionnelles. J'ai donc quelques doutes sur la capacité de doter des systèmes d'intelligence artificielle de véritables émotions. Il s'agit plutôt de simulacres d'émotions qui ne sont pas vraiment des émotions ressenties.

Ressentir des émotions suppose un corps à soi et pas simplement un appendice que l'on commande comme un robot. Une difficulté qui est loin d'être résolue actuellement. Mais pour être intelligent, c'est-à-dire pour faire face à une situation, il faut être capable de prendre en compte effectivement les dimensions normatives: de manière générale, ce qui est juste, ce qui est bon et qui nous fait vibrer, ce qui nous fait douter... Facteurs qui font partie de ce qui vous guide dans la saisie appropriée d'une situation. Saisir une situation dans sa complexité n'est pas possible si l'on est une sorte de monstre froid, on n'appréhendera qu'une partie de la situation et pas sa totalité humaine.

Une absence de sens commun

Finalement, ce qui manque à l'intelligence artificielle, n'est-ce pas le sens commun?

Effectivement, il s'agit d'un thème actuellement central dans l'histoire et la critique de l'intelligence artificielle. Dès la première phase de l'intelligence artificielle symbolique, qui court des années 50 jusqu'au milieu des années 80, cette idée semblait intéressante, mais sans que l'on parvienne pour autant à doter les algorithmes et le système d'intelligence artificielle de sens commun. À savoir, toutes sortes d'informations que nous, êtres humains, avons absorbées au cours de notre développement.

Nous accumulons au fil de notre existence une quantité absolument prodigieuse de petits faits qui ne sont pas de la science, mais qui nous permettent de gérer la vie quotidienne de manière adéquate. Lorsque nous entrons dans une boulangerie, nous ne demandons pas où sont les toilettes, ce que nous pouvons faire en pénétrant dans un café. Il y a une quantité absolument immense de faits de ce genre. Pour qu'un système soit véritablement intelligent, c'est à ce genre de situations qu'une IA devrait pouvoir correctement répondre. On devrait pouvoir lâcher une intelligence artificielle dans la nature afin qu'elle se débrouille seule, qu'elle aille acheter du pain, qu'elle aille au bistrot pour soulager sa vessie artificielle. (rires)

Pour être vraiment intelligente, l'intelligence artificielle devrait surtout être... paresseuse ?

Oui, ce serait une manière de l'humaniser, c'est-à-dire de lui donner une sorte de sens de l'effort et un sens des priorités. Cela renvoie à un problème familier, et qui est beaucoup discuté dans les cercles de l'intelligence artificielle, celui de l'alignement des valeurs : une intelligence artificielle devrait épouser nos valeurs. Et parmi nos valeurs, il y a effectivement celles de plaisir, de paresse et de jouissance. Or, une intelligence artificielle est infatigable et inhumaine. En tant qu'humain, nous sommes fatigués et nous développons un sens des priorités. Un des scénarios envisagés dans la réflexion quant à ce que pourrait être une super intelligence artificielle capable de résoudre tous les problèmes, serait de faire savoir à l'IA que nous manquons de trombones sur terre. L'intelligence artificielle se révèlerait complètement incapable de se rendre compte qu'il s'agit d'un objectif relativement mineur qui ne nécessite pas une priorité absolue. De ce fait, si on la laissait faire, elle couvrirait la planète de trombones...

Certains ont prôné une pause de six mois de la recherche en IA, n'est-ce pas autant utopique qu'hypocrite?

C'est même étonnant. Je connais des scientifiques qui ont signé ce manifeste, tout en reconnaissant effectivement son côté inopérant pour deux raisons. D'abord, il ne sera jamais respecté: les Américains ne vont pas laisser des Chinois prendre six mois d'avance et inversement. Deuxième raison, ce n'est pas en six mois qu'on va découvrir les moyens de juguler les dangers de l'IA. En signant cette pétition, ces scientifiques ont voulu marquer leur adhésion à l'idée que l'intelligence artificielle présente véritablement des dangers, qu'il s'agit de domestiquer, ce qui représente un effort considérable. L'Europe, par l'entremise de l'IA Act qui est en train d'être votée, va tenter par cette réglementation d'encadrer les développements dans l'univers de l'IA qui a des allures de 'Far West' sans foi ni loi.

De ce point de vue les différentes chartes, évoquées dans votre ouvrage, sont plutôt un catalogue de bonnes intentions...

En effet, des voeux pieux qui permettent cependant de prévenir les ingénieurs, les étudiants, qu'ils touchent à des problématiques extrêmement dangereuses et sensibles. Mais effectivement, il reste un travail colossal à effectuer afin de mettre en pratique, dans les différents métiers en situation, ce genre de principes. (l'interview en intégralité sur www.lejournaldumedecin.be).

Une autre problématique est la propagande éthique diffusée par les entreprises travaillant sur l'IA...

C'est ce qu'on appelle l'" ethics washing " : se parer des plumes de l'éthique pour éviter les regards indiscrets du législateur ou de l'opinion publique. Les déclarations récentes d'Elon Musk et de Sam Altman de Open AI vont dans ce sens. Il s'agit d'une manière de dire " écoutez, nous sommes des gens de bien. Nous inventons un système de technologie qui va rendre les plus grands services à l'humanité. Mais nous sommes conscients des dangers, et donc fichez-nous la paix. Ne nous régulez pas, laissez-nous faire notre tambouille, de cette façon nous continuerons de conserver cette position dominante dans ce domaine ". Donc il y a effectivement derrière beaucoup de communication, de postures et de déclarations, pas forcément sincères.

Daniel Andler. Intelligence artificielle, intelligence humaine : la double énigme. Gallimard (NRF Essais).

Professeur émérite à la Sorbonne et membre de l'Académie des sciences morales et politiques, Daniel Andler a suivi de très près les évolutions technologiques passées et récentes des systèmes informatiques. Face aux avancées spectaculaires des dernières années, voire des derniers mois, il s'interroge sur la capacité de l'intelligence artificielle a reproduire l'intelligence humaine, réputée insaisissable. Une IA qui ne peut et ne doit prétendre qu'à résoudre des problèmes, certes de plus en plus complexes, que lui soumettent des agents humains, plutôt que de chercher à en faire des pseudo personnes munies d'une forme inhumaine de cognition. Il nous livre son opinion sur les derniers développements, évolutions... et dangers. Le journal du Médecin : Le journal allemand Bild va remplacer plusieurs centaines d'emplois par l'IA. Or, vous écrivez que le travail et la démocratie vont être les deux domaines les plus affectés par l'intelligence artificielle... Daniel Andler : En ce qui concerne le travail, il ne s'agit pas de rendre les métiers complètement obsolètes, à l'image des célèbres images des porteurs d'eau dans les grandes villes au moment de l'apparition de l'eau courante dans les appartements. À quelques exceptions près, les métiers ne vont pas disparaître, mais seront par contre profondément transformés: c'est déjà une évidence dans certains secteurs médicaux. Mais l'idée que les radiologues, par exemple, vont être du jour au lendemain remplacés par l'IA, est fausse, pour deux raisons. D'abord parce qu'il faudra toujours des radiologues afin d'évaluer les performances des machines. Si nous leur donnons l'exclusivité de la compétence, dès que les techniques d'imagerie se modifieront, que de nouvelles maladies ou de nouveaux symptômes apparaîtront, il n'y aura plus personne pour les interpréter et ajuster les jugements des machines. Selon une étude récente d'un grand cabinet de consultants en marketing, nous allons perdre près de 30 millions d'emplois nets dans le monde entier du fait de l'IA. Mais ces prédictions sont spéculatives et il subsiste de nombreuses incertitudes sur ce que sont des systèmes d'IA vraiment performants et fiables. Ils ne sont pas si nombreux et pour l'instant, sont perclus de défauts qui empêchent de les déployer à des échelles industrielles. Et on ignore pour l'instant de quelle manière leur déploiement progressif dans la société pourra s'opérer. Peut-on dire que l'IA fonctionne un peu comme un exosquelette pour le mental? Oui, c'est une image appropriée. Ceci dit, l'exosquelette vous permet les gestes habituels en vous aidant, par exemple si vous souffrez d'un handicap, de soulever des charges plus lourdes ou de faire des sauts au départ beaucoup plus longs que ce que vous feriez habituellement. Alors que l'intelligence artificielle court-circuite les actions humaines, va directement au but, et permet donc à l'homme d'obtenir le résultat auquel il aurait été incapable de parvenir lui-même. Le parallèle avec l'exosquelette associe parfois trop étroitement l'intelligence artificielle aux mouvements mentaux de la créature humaine. Car, dans certains cas, l'intelligence artificielle agit tout à fait autrement. Vous taxez ChatGPT de prestidigitateur... C'est un prestidigitateur au sens où personne ne pense que ChatGPT fait des miracles, ou qu'il s'agit d'un cerveau artificiel. En revanche, il produit des effets exactement comme un prestidigitateur: ce n'est pas de la magie, mais une production dont on ignore comment elle est possible s'il n'y a pas effectivement un cerveau derrière. De ce point de vue, cela ressemble beaucoup à la prestidigitation. L'intelligence humaine serait-elle souvent liée à l'émotion, ce qui la différencie de l'intelligence artificielle? C'est ce qui a interpellé un certain nombre de scientifiques, dont ma collègue Laurence Devillers qui a écrit un livre entier à ce sujet. Pour qu'elle devienne vraiment intelligente, l'IA devrait se doter de capacités émotionnelles. J'ai donc quelques doutes sur la capacité de doter des systèmes d'intelligence artificielle de véritables émotions. Il s'agit plutôt de simulacres d'émotions qui ne sont pas vraiment des émotions ressenties.Ressentir des émotions suppose un corps à soi et pas simplement un appendice que l'on commande comme un robot. Une difficulté qui est loin d'être résolue actuellement. Mais pour être intelligent, c'est-à-dire pour faire face à une situation, il faut être capable de prendre en compte effectivement les dimensions normatives: de manière générale, ce qui est juste, ce qui est bon et qui nous fait vibrer, ce qui nous fait douter... Facteurs qui font partie de ce qui vous guide dans la saisie appropriée d'une situation. Saisir une situation dans sa complexité n'est pas possible si l'on est une sorte de monstre froid, on n'appréhendera qu'une partie de la situation et pas sa totalité humaine. Finalement, ce qui manque à l'intelligence artificielle, n'est-ce pas le sens commun? Effectivement, il s'agit d'un thème actuellement central dans l'histoire et la critique de l'intelligence artificielle. Dès la première phase de l'intelligence artificielle symbolique, qui court des années 50 jusqu'au milieu des années 80, cette idée semblait intéressante, mais sans que l'on parvienne pour autant à doter les algorithmes et le système d'intelligence artificielle de sens commun. À savoir, toutes sortes d'informations que nous, êtres humains, avons absorbées au cours de notre développement. Nous accumulons au fil de notre existence une quantité absolument prodigieuse de petits faits qui ne sont pas de la science, mais qui nous permettent de gérer la vie quotidienne de manière adéquate. Lorsque nous entrons dans une boulangerie, nous ne demandons pas où sont les toilettes, ce que nous pouvons faire en pénétrant dans un café. Il y a une quantité absolument immense de faits de ce genre. Pour qu'un système soit véritablement intelligent, c'est à ce genre de situations qu'une IA devrait pouvoir correctement répondre. On devrait pouvoir lâcher une intelligence artificielle dans la nature afin qu'elle se débrouille seule, qu'elle aille acheter du pain, qu'elle aille au bistrot pour soulager sa vessie artificielle. (rires)Pour être vraiment intelligente, l'intelligence artificielle devrait surtout être... paresseuse ? Oui, ce serait une manière de l'humaniser, c'est-à-dire de lui donner une sorte de sens de l'effort et un sens des priorités. Cela renvoie à un problème familier, et qui est beaucoup discuté dans les cercles de l'intelligence artificielle, celui de l'alignement des valeurs : une intelligence artificielle devrait épouser nos valeurs. Et parmi nos valeurs, il y a effectivement celles de plaisir, de paresse et de jouissance. Or, une intelligence artificielle est infatigable et inhumaine. En tant qu'humain, nous sommes fatigués et nous développons un sens des priorités. Un des scénarios envisagés dans la réflexion quant à ce que pourrait être une super intelligence artificielle capable de résoudre tous les problèmes, serait de faire savoir à l'IA que nous manquons de trombones sur terre. L'intelligence artificielle se révèlerait complètement incapable de se rendre compte qu'il s'agit d'un objectif relativement mineur qui ne nécessite pas une priorité absolue. De ce fait, si on la laissait faire, elle couvrirait la planète de trombones... Certains ont prôné une pause de six mois de la recherche en IA, n'est-ce pas autant utopique qu'hypocrite? C'est même étonnant. Je connais des scientifiques qui ont signé ce manifeste, tout en reconnaissant effectivement son côté inopérant pour deux raisons. D'abord, il ne sera jamais respecté: les Américains ne vont pas laisser des Chinois prendre six mois d'avance et inversement. Deuxième raison, ce n'est pas en six mois qu'on va découvrir les moyens de juguler les dangers de l'IA. En signant cette pétition, ces scientifiques ont voulu marquer leur adhésion à l'idée que l'intelligence artificielle présente véritablement des dangers, qu'il s'agit de domestiquer, ce qui représente un effort considérable. L'Europe, par l'entremise de l'IA Act qui est en train d'être votée, va tenter par cette réglementation d'encadrer les développements dans l'univers de l'IA qui a des allures de 'Far West' sans foi ni loi. De ce point de vue les différentes chartes, évoquées dans votre ouvrage, sont plutôt un catalogue de bonnes intentions... En effet, des voeux pieux qui permettent cependant de prévenir les ingénieurs, les étudiants, qu'ils touchent à des problématiques extrêmement dangereuses et sensibles. Mais effectivement, il reste un travail colossal à effectuer afin de mettre en pratique, dans les différents métiers en situation, ce genre de principes. (l'interview en intégralité sur www.lejournaldumedecin.be).Une autre problématique est la propagande éthique diffusée par les entreprises travaillant sur l'IA...C'est ce qu'on appelle l'" ethics washing " : se parer des plumes de l'éthique pour éviter les regards indiscrets du législateur ou de l'opinion publique. Les déclarations récentes d'Elon Musk et de Sam Altman de Open AI vont dans ce sens. Il s'agit d'une manière de dire " écoutez, nous sommes des gens de bien. Nous inventons un système de technologie qui va rendre les plus grands services à l'humanité. Mais nous sommes conscients des dangers, et donc fichez-nous la paix. Ne nous régulez pas, laissez-nous faire notre tambouille, de cette façon nous continuerons de conserver cette position dominante dans ce domaine ". Donc il y a effectivement derrière beaucoup de communication, de postures et de déclarations, pas forcément sincères.