Le Pape François a demandé aux dirigeants du secteur technologique de l'IA de mesurer la valeur de leurs innovations non pas en termes de puissance de traitement ou de potentiel de profit, mais en fonction de leur capacité à promouvoir la dignité humaine.
Lors d'une réunion au Vatican le 27 mars avec des scientifiques, des ingénieurs, des hommes d'affaires et des juristes travaillant dans l'industrie technologique, le Pape a réfléchi à l'impact social et culturel de l'intelligence artificielle.
Les avantages de l'intelligence artificielle et de l'apprentissage automatique pour l'humanité ne se concrétiseront que si les développeurs agissent d'une "manière éthique et responsable" qui respecte la dignité intrinsèque de chaque personne, a déclaré le Pape.
Il s'est toutefois inquiété de l'absence d'un tel respect lorsque, par exemple, des logiciels artificiellement intelligents sont utilisés pour produire des sentences légales en analysant le casier judiciaire d'un individu et des données générales.
"Le comportement passé d'un individu ne devrait pas être utilisé pour lui refuser la possibilité de changer, de grandir et de contribuer à la société", a-t-il déclaré. "Nous ne pouvons pas permettre aux algorithmes de limiter ou de conditionner le respect de la dignité humaine, ni d'exclure la compassion, la miséricorde, le pardon et, par-dessus tout, l'ouverture à l'espoir d'un changement personnel."
Les experts en technologie craignent que les données utilisées pour construire les algorithmes des logiciels juridiques artificiellement intelligents n'amplifient les préjugés préexistants dans les systèmes judiciaires, opprimant davantage des groupes déjà marginalisés.
"Ces données peuvent être contaminées par des préjugés et des idées sociales préconçues", a déclaré le Pape. "La valeur fondamentale d'une personne ne peut être mesurée par un ensemble de données."
Il a souligné que les technologies numériques ont accru les inégalités dans le monde, tant sur le plan économique qu'en termes d'influence politique et sociale. Cette inégalité, a-t-il dit, est enracinée dans un "faux sens de la méritocratie".
"Il y a un risque de concevoir l'avantage économique d'un petit nombre comme étant gagné ou mérité, alors que la pauvreté d'un grand nombre est considérée, d'une certaine manière, comme étant de leur faute", a-t-il déclaré.
Le Pape François a invité les chefs d'entreprise à réfléchir à la manière dont leurs innovations peuvent créer une société plus égalitaire et plus inclusive.
"Nos institutions nationales et internationales sont-elles en mesure de tenir les entreprises technologiques responsables de l'impact social et culturel de leurs produits ? L'accroissement des inégalités ne risque-t-il pas de compromettre notre sens de la solidarité humaine et sociale ?"
Le Pape a rappelé les principes éthiques du développement de l'intelligence artificielle sur lesquels se sont mis d'accord les responsables religieux, gouvernementaux et de l'industrie technologique au Vatican : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée.
En janvier, des dirigeants de Microsoft et d'IBM ainsi que des représentants des communautés musulmane et juive se sont réunis au Vatican pour signer un document appelant à une approche du développement de l'IA centrée sur l'humain, dans lequel les principes ont été approuvés.
Le document préconise d'établir "une perspective dans laquelle l'IA est développée non pas en fonction de la technologie, mais plutôt pour le bien de l'humanité et de l'environnement".
À lire aussi | Un Prêtre signale un possible miracle eucharistique
Lors de la réunion de mars, le Pape a remercié les dirigeants du secteur technologique de s'être engagés dans des discussions sur l'utilisation responsable des technologies qui sont "ouvertes aux valeurs religieuses", et a déclaré que le dialogue entre les croyants et les non-croyants sur la science et l'éthique "est un chemin vers la construction de la paix et le développement intégral de l'humanité".
Cet article a été publié originellement par TheBostonPilot (Lien de l’article).
Ok.