Tami Bhaumik (Roblox) "Notre objectif est de faire de Roblox l'endroit le plus sûr d'Internet"

Après avoir dévoilé en novembre dernier de nouvelles fonctionnalités pour mieux protéger les enfants sur le Web, Roblox veut rassurer les parents. Tami Bhaumik, à la tête de la civilité numérique, explique sa feuille de route au JDN.

JDN. Chez Roblox depuis 2016, vous dirigez l'initiative dédiée à la civilité numérique. Quel est son objectif ?

Tami Bhaumik est vice président en charge des partenariats et de la civilité numérique chez Roblox. © Roblox

Cette initiative est née il y a six ans pour combler le fossé éducatif séparant les jeunes et leurs parents ou tuteurs. Certains parents nous ont expliqué qu'ils ne comprenaient pas ce que leurs enfants faisaient sur Roblox. Depuis sa création il y a presque 20 ans, Roblox est une plateforme majoritairement utilisée par les jeunes générations et leur sécurité a toujours été notre priorité. L'un des objectifs de mon équipe consiste à créer des supports éducatifs destinés aux parents et aux enfants, mais aussi à sensibiliser nos équipes afin de rendre nos produits toujours plus sûrs pour les plus jeunes. Nous travaillons étroitement avec des chercheurs et des universitaires du monde entier, mais aussi des ONG spécialisées dans les questions de sécurité.

Roblox a annoncé en novembre dernier plusieurs nouvelles fonctionnalités visant à donner plus de contrôle aux parents. Pouvez-vous partager quelques exemples et cas d'usage ?

Les nouveaux contrôles parentaux que nous avons annoncé en novembre viennent compléter ce que nous avons entamé depuis deux ans. L'objectif principal est de donner aux parents une meilleure visibilité et compréhension de ce que font leurs enfants sur Roblox. Nous avons notamment annoncé que les échanges privés pour les moins de 13 ans étaient désormais désactivés par défaut. Si un enfant veut discuter en privé avec un ami, il devra ainsi obtenir l'autorisation parentale au préalable. Il lui est toujours possible de chatter au sein des jeux et expériences, mais uniquement à travers le fil de discussion public auquel nous appliquons des filtres et une modération continue. Le fait de pouvoir chatter pendant un jeu reste une fonctionnalité importante en termes de gameplay. Par exemple, pour certains jeux, il est important de pouvoir communiquer avec d'autres joueurs pour élaborer des stratégies.

Ces réglages peuvent-ils être modifiés par les parents en cas de besoin ?

Les parents peuvent effectivement gérer ces autorisations directement via un tableau de bord à travers leur propre compte. Auparavant, il leur fallait accéder au compte de leur enfant pour configurer ces contrôles. Désormais, ils peuvent tout gérer à distance, que ce soit pour consulter le temps d'écran de leur enfant sur la semaine écoulée, définir des limites quotidiennes de temps d'écran, voir leur liste d'amis, ou encore accorder du temps supplémentaire en cas de bon comportement s'ils le souhaitent. Les parents doivent fournir une pièce d'identité ou une carte bancaire pour s'identifier. La vérification d'identité est en effet un autre levier que nous utilisons et elle s'impose aux joueurs aussi pour accéder à certains contenus imposant une certaine limite d'âge.

Roblox a également annoncé que les jeux seraient désormais étiquetés en fonction du type de contenu, et non plus par âge. Pourquoi ce changement ?

Effectivement, désormais des labels sont appliqués pour chaque expérience ou jeu. Quatre niveaux de labels ont été créés : minimal, modéré, léger, et restreint. Par défaut, les moins de 13 ans ont accès aux jeux de catégorie léger, mais les parents peuvent modifier ce paramètre si besoin. Chaque enfant de neuf ans n'a pas le même niveau de maturité ou les mêmes capacités à comprendre certains contenus. Ainsi, si un enfant de neuf ans désire jouer avec son frère de 13 ans et que ses parents sont d'accord, ces derniers pourront modifier le niveau de contenu accessible. Pour nous assurer que les créateurs remplissent bien ces labels, nous avons mis en place plusieurs processus de vérification. Des systèmes de signalement ont été mis en place et nous utilisons l'IA pour détecter certaines anomalies. Si quelque chose semble suspect, notre équipe dédiée aux relations avec les développeurs ouvre une enquête.

Comment luttez-vous également contre la présence de pédophiles sur la plateforme ?

Nous travaillons sans relâche pour mettre en place les systèmes les plus robustes possibles. Nous utilisons notamment l'IA pour détecter certains schémas ou comportements suspects et mettons en place des systèmes de signalement. Nous déclenchons des enquêtes ou alertons les forces de l'ordre dès que nécessaire. Enfin, nous collaborons avec d'autres plateformes. Je siège par exemple au conseil d'une organisation appelée Technology Coalition. Cette structure vise à lutter contre l'exploitation et les abus sexuels des enfants sur le Web. Elle regroupe plus d'une cinquantaine d'entreprises, dont Microsoft, Google et d'autres grandes sociétés technologiques. L'un de ses objectifs est de favoriser la collaboration et le partage d'informations afin de rendre nos plateformes aussi sûres que possible. Car si nous excluons un acteur malveillant de Roblox, il ira probablement ailleurs. C'est pourquoi il est crucial que nous travaillions tous ensemble pour les tenir éloignés.

Que représentent les investissements visant à renforcer la sécurité sur Roblox ?

Notre objectif est de faire de Roblox l'endroit le plus sûr d'Internet. Plus de 10% de nos effectifs travaillent exclusivement sur la sécurité, même si toutes nos équipes y contribuent d'une manière ou d'une autre. La majorité de nos utilisateurs passent de très bons moments sur Roblox mais il faut garder à l'esprit qu'avec près de 90 millions d'utilisateurs actifs quotidiens, notre population dépasse celle de nombreux pays. Dans le lot, il y aura forcément quelques acteurs mal intentionnés. Malgré tout, nous allons continuer à innover en misant sur des technologies comme l'IA et l'apprentissage automatique pour rendre notre environnement encore plus sûr que le monde réel.

Pensez-vous que les investissements réalisés en matière de sécurité pourraient vous conférer un avantage compétitif sur le long terme et aussi permettre de rassurer les parents ?

Bien sûr, mais ce n'est pas la motivation principale. Notre priorité est de garantir la sécurité sur notre plateforme car il est de notre responsabilité de protéger les enfants. Par exemple, Roblox a, il y a quelques mois, mis en ligne sur Hugging Face un modèle d'IA en Open Source dédié à la modération vocale en temps réel. Nous sommes heureux de voir d'autres entreprises utiliser certains de nos modèles en les incorporant au sein de leurs propres protocoles de sécurité.

Tami Bhaumik est Vice-Présidente de la Civilité et des Partenariats chez Roblox, entreprise qu'elle rejoint en juin 2016. Elle dirige l'initiative de civilité numérique et collabore avec différentes organisations internationales afin de promouvoir une citoyenneté numérique responsable. Tami est diplômée de l'Université de Californie à Berkeley.