De Matrix à Matrice (épisode 5)

L’IA pousse l’homme et la machine a toujours plus collaborer. Cet article est le cinquième d’une série destinée à explorer les modalités de ladite collaboration. Il aborde la question de la mesure de son efficacité.

Le besoin d’une méthode simple mais robuste

Une fois posés, les critères permettant l’évaluer le niveau de collaboration entre l’homme et une, ou plusieurs, intelligences artificielles, peuvent faire l’objet d’une mesure rigoureuse par un système de notation simple, sur une échelle allant de un à dix (un étant le niveau le plus bas de satisfaction du critère et dix son niveau le plus élevé).





La notation, quant à elle, pourra s’effectuer selon différentes modalités :
  • L’auto-évaluation : la notation est effectuée par l’homme impliqué dans cette relation homme-machine.
  • L’évaluation : la notation est effectuée par une autre personne externe et objective (évaluation).
  • L’évaluation automatisée : la notation est effectuée par la machine uniquement.
  • L’évaluation symbiotique : la notation est faite par l’homme et la machine (au cours de leurs séances d’évaluations respectives notamment (cf. critères 3 et 4 de la rubrique « La nécessaire collaboration mutuelle » ci-avant).
  • L’évaluation statistique : la notation provient d’une comparaison avec des relations hommes-machines similaires.
Nous ne nous prononçons pas davantage sur les forces et les faiblesses de ces différentes options, préférant laisser à d’autres experts plus aguerris sur ce point méthodologique précis, le soin de s’exprimer à son sujet.

A suivre.