Pour une IA éthique au service de l'innovation sociale
L'IA doit s'inscrire dans un cadre éthique et avoir pour finalité le bien commun. Elle représente un formidable levier de résolution de problématiques sociales complexes (pauvreté, accès à l'emploi).
Le développement de l’intelligence artificielle (IA) représente une véritable révolution copernicienne : sa puissance de calcul permet de donner sens et utilité à d’immenses volumes de données, avec une rapidité qui dépasse les capacités humaines.
D’un côté, ces potentialités que l’IA nous offre dans tous les domaines du savoir peuvent nous fascinés, au point même de lui attribuer un pouvoir miraculeux, celui de nous arracher aux lois de la nature.
De l’autre, elles peuvent nous effrayer quand nous pensons aux dangers inhérents à son utilisation : l’amplification des fake news, les inégalités d’accès au savoir, l’usage des données à des fins de contrôle et de répression, etc.
« Algor-éthique »
Entre ces deux attitudes, il existe un chemin de crête pour donner à l’IA sa juste place. Il faut pour cela comprendre ce qu’elle est :
1. Sa nature : l’IA fonde uniquement sa logique en termes numériques. Ce modèle, s’il donne l’illusion de raisonner et de parler comme un humain, ne réfléchit pas, il calcule.
2. Ses limites : l’IA n’est pas vraiment générative : elle ne crée rien par elle-même. Elle est agrégative, dans le sens où elle s’appuie sur des données existantes, en privilégiant les plus répandues, sans souci de vérité.
3. La pensée qu’elle véhicule : l’IA n’est qu’un outil mais elle porte en elle-même une vision du monde, qui est celle de ceux qui l’ont façonné. Elle contribue à un certain ordre social qui en avantagent certains et en désavantagent d’autres.
Pour toutes ces raisons, ce n’est pas à l’IA mais à l’homme de prendre des décisions. Décider est le propre de la dignité humaine. Confier cette tâche à une machine ne peut que nous amener à un manque de soin pour le vivant dans sa complexité.
L’IA peut, en revanche, si elle est fondée sur une « algor-éthique », selon les mots de Paolo Benanti, avoir un fort impact positif.
La nécessité d’un cadre légal exigeant
Pour cela, il est essentiel que les acteurs politiques lui donnent un cadre réglementaire rigoureux.
Ce cadre légal doit nécessairement être international et garantir la protection de la vie privée, la sécurité des données et le respect de la propriété intellectuelle.
Il doit aussi permettre d’éviter les biais ethniques d'âge et de confirmation.
L’IA doit, selon Data For Good[i], privilégier les informations les plus rigoureuses, issues de sources établies et les citer, indiquer les hypothèses et les incertitudes, voire renoncer à apporter une réponse en cas d’absence de données probantes, vérifiées par la science.
Le cadre légal de l’IA doit éviter la destruction d’emplois mais contribuer à les recentrer sur des tâches à forte valeur ajoutée, diminuer la pénibilité et développer le temps libre. Cela implique la montée en compétences des collaborateurs et le financement de l’inclusion des personnes les plus éloignées du numérique.
Enfin, il faut inciter les acteurs de l’IA à adopter des statuts d’organisation à but non lucratif ou de société à mission, afin de « redonner du sens à l’activité économique », comme le soutiennent, Anne-Claire Pache et Julie Battilana, professeurs à l’ESSEC et Harvard[ii].
Si ces conditions sont réunies, l’IA peut accélérer notre capacité à répondre à des problématiques cruciales, dans le domaine environnemental sur de nombreuses thématiques[iii] mais aussi dans le domaine social.
L’IA au service de l’innovation sociale
L’IA offre des applications précieuses pour façonner des réponses à des besoins sociaux prégnants. L’IA permet de mieux cibler des personnes en situation de pauvreté. Exemple, Data Pop Alliance utilise l’IA pour analyser des données d'observation telles que les émissions lumineuses, les métadonnées des téléphones portables ou les transactions bancaires numériques afin de mieux cibler les personnes pauvres.
Dans le champ de l’emploi, France Travail s’approprie l’IA pour fournir un service personnalisé aux personnes en recherche d’emploi en France et leur permettre une orientation vers des métiers adaptés à leurs profils et compétences.
L'IA transforme aussi l'éducation. Par exemple, les systèmes de tutorat intelligents (ITS) se révèlent efficaces pour améliorer l'apprentissage des mathématiques chez les élèves de la maternelle à la terminale, en personnalisant les apprentissages et en permettant aux élèves de travailler sur les points où ils en ont le plus besoin[iv].
Dans la santé, une étude publiée dans Nature montre que l'IA peut améliorer la détection précoce du cancer du sein, réduisant ainsi les faux négatifs et positifs, ce qui optimise la prise en charge des patients[v].
En fin de compte, l’IA n'est ni toute-puissante, ni effrayante. Elle est ce que nous en faisons. Elle dépend des régulateurs qui doivent donner le cadre et encadrer strictement les entreprises de l’IA, des data scientists qui développent des modèles reposant sur des sources fiables, diverses et vérifiées et de chacun de nous qui devons apprendre à faire un juste et sobre usage de cette technologie.
[i] Data for Good. (2023). Les grands défis de l’IA générative.
[ii] Battilana, J. & Pache, A.-C. (2024). Intelligence artificielle : « Sam Altman va-t-il réussir à maintenir le cap de la double mission d’OpenAI ? ». In Le Monde. 24 avril 2024.
[iii] L’IA est notamment utilisée pour ses capacités prédictives ou analytiques dans l’adaptation au changement climatique, la gestion des énergies renouvelables, la préservation de la biodiversité, etc.
[iv] Baker, R. S., Corbett, A. T., & Aleven, V. (2016). The Effects of Intelligent Tutoring Systems on K-12 Students' Mathematics Learning: A Meta-Analysis. Journal of Educational Psychology, 108(6), 991-1009. https://doi.org/10.1037/edu0000090
[v] McKinney, S. et al. (2020). International evaluation of an AI system for breast cancer screening. Nature, 577(7788), 89-94. https://doi.org/10.1038/s41586-019-1799-6