Common Sense Media signale plusieurs produits d’IA populaires comme dangereux pour les enfants

Common Sense Media signale plusieurs produits d’IA populaires comme dangereux pour les enfants

Un examen indépendant des outils d’intelligence artificielle les plus populaires a révélé que nombre d’entre eux, dont My AI de Snapchat, DALLE et Stable Diffusion, pourraient ne pas être sûrs pour les enfants. Les nouvelles évaluations proviennent de Common Sense Media, un groupe de défense des familles à but non lucratif qui est surtout connu pour fournir des évaluations des médias aux parents qui souhaitent évaluer les applications, les jeux, les podcasts, les émissions de télévision, les films et les livres que leurs enfants consomment. En début d’année, l’entreprise a annoncé qu’elle ajouterait bientôt des évaluations pour les produits d’intelligence artificielle à ses ressources pour les familles. Aujourd’hui, ces évaluations sont en ligne et proposent ce que l’on appelle des « étiquettes nutritionnelles » pour les produits d’IA, tels que les chatbots, les générateurs d’images et bien d’autres encore.

La société a annoncé pour la première fois en juillet qu’elle avait l’intention de mettre en place un système de notation pour évaluer les produits d’IA sur un certain nombre de points, notamment pour déterminer si la technologie bénéficie ou non de pratiques d’IA responsables et si elle est adaptée aux enfants. L’initiative a été prise à la suite d’une enquête menée auprès des parents pour évaluer leur intérêt pour un tel service. 82 % des parents ont déclaré vouloir de l’aide pour évaluer si les nouveaux produits d’IA, comme ChatGPT, peuvent être utilisés sans danger par leurs enfants. Seuls 40 % d’entre eux ont déclaré connaître des ressources fiables qui les aideraient à prendre ces décisions.

C’est pourquoi Common Sense Media lance aujourd’hui sa première évaluation des produits d’IA. Les produits évalués sont classés en fonction de plusieurs principes d’IA, notamment la confiance, la sécurité des enfants, la protection de la vie privée, la transparence, la responsabilité, l’apprentissage, l’équité, les liens sociaux et les avantages pour les personnes et la société.

L’organisation a d’abord évalué 10 applications populaires sur une échelle de 5 points, y compris celles utilisées pour l’apprentissage, les chatbots d’IA comme Bard et ChatGPT, ainsi que les produits d’IA générative, comme My AI et DALL-E de Snap et d’autres. Comme on pouvait s’y attendre, c’est cette dernière catégorie qui s’est le plus mal comportée.

« L’IA n’est pas toujours correcte, ni neutre sur le plan des valeurs », a fait remarquer Tracy Pizzo-Frey, conseillère principale en matière d’IA chez Common Sense Media, dans un résumé des évaluations. « Toutes les IA génératives, du fait que les modèles sont entraînés sur des quantités massives de données Internet, hébergent une grande variété de préjugés culturels, raciaux, socio-économiques, historiques et de genre – et c’est exactement ce que nous avons trouvé dans nos évaluations », a-t-elle ajouté. « Nous espérons que nos évaluations encourageront davantage de développeurs à mettre en place des protections qui limitent la diffusion de fausses informations et qui contribuent à protéger les générations futures de répercussions involontaires. »

Dans les propres tests de TechCrunch, la journaliste Amanda Silberling a trouvé que les fonctions génératives My AI de Snapchat avaient généralement tendance à être plus bizarres et aléatoires qu’activement nuisibles, mais Common Sense Media a donné au chatbot IA une note de 2 étoiles, notant qu’il produisait des réponses qui renforçaient des préjugés injustes concernant l’âgisme, le sexisme et les stéréotypes culturels. Il propose également des réponses parfois inappropriées, ainsi que des inexactitudes. Il stocke également les données personnelles des utilisateurs, ce qui, selon l’organisation, pose des problèmes de protection de la vie privée.

Snap a réagi à la mauvaise critique, notant que My AI était un outil optionnel et que Snapchat indique clairement qu’il s’agit d’un chatbot et informe les utilisateurs de ses limites.

« Par défaut, Mon IA affiche un emoji robot. Avant que quiconque puisse interagir avec My AI, nous affichons un message in-app pour préciser qu’il s’agit d’un chatbot et informer sur ses limites », a déclaré Maggie Cherneff, porte-parole de Snap. « Mon IA est également intégré à notre Centre familial afin que les parents puissent voir si et quand les adolescents discutent avec lui. Nous apprécions les commentaires de l’évaluation car nous continuons à améliorer notre produit », a-t-elle ajouté.

D’autres modèles d’IA générative comme DALL-E et Stable Diffusion présentaient des risques similaires, notamment une tendance à l’objectivation et à la sexualisation des femmes et des filles et un renforcement des stéréotypes de genre, entre autres préoccupations. (Les demandes de commentaires n’ont pas été immédiatement retournées).

Comme tout nouveau média sur l’internet, ces modèles d’IA générative sont également utilisés pour produire du matériel pornographique. Des sites tels que Hugging Face et Civitai sont devenus populaires non seulement en tant que ressources pour trouver de nouveaux modèles d’images, mais aussi pour faciliter la recherche de différents modèles qui peuvent être combinés les uns avec les autres pour faire du porno en utilisant l’image de quelqu’un (comme une célébrité). Cette question a été soulevée cette semaine, lorsque 404Media a dénoncé les capacités de Civitai, mais le débat sur la partie responsable – les agrégateurs de la communauté ou les modèles d’IA eux-mêmes – s’est poursuivi sur des sites comme Hacker News dans la foulée.

Dans la moyenne des classements de Common Sense, on trouve des chatbots d’IA comme Bard de Google (qui a officiellement ouvert ses portes aux adolescents hier), ChatGPT et Toddle AI. L’organisation a mis en garde contre le risque de partialité de ces robots, en particulier à l’égard des utilisateurs ayant « des origines et des dialectes divers ». Ils pourraient également produire des informations inexactes – ou des hallucinations de l’IA – et renforcer les stéréotypes. Common Sense a averti que les fausses informations produites par l’IA pourraient façonner la vision du monde des utilisateurs et rendre encore plus difficile la distinction entre la réalité et la fiction.

Les seuls produits d’IA à avoir reçu de bonnes critiques sont le tuteur de lecture et le service de livraison de livres d’Ello, Khanmingo (de la Khan Academy) et le tuteur d’IA de Kyron Learning – tous trois étant des produits d’IA conçus à des fins éducatives. Ils sont moins connus que d’autres. (Et, comme le diront certains enfants, moins amusants). Néanmoins, comme les entreprises les ont conçus en pensant à l’usage des enfants, elles ont eu tendance à utiliser des pratiques d’IA responsables et se sont concentrées sur l’équité, la représentation diversifiée et les considérations de conception adaptées aux enfants. Elles sont également plus transparentes en ce qui concerne leurs politiques de confidentialité des données.

Common Sense Media affirme qu’il continuera à publier des évaluations et des commentaires sur les nouveaux produits d’intelligence artificielle, en espérant qu’ils contribueront à informer non seulement les parents et les familles, mais aussi les législateurs et les organismes de réglementation.

« Les consommateurs doivent avoir accès à un étiquetage nutritionnel clair pour les produits d’IA qui pourraient compromettre la sécurité et la vie privée de tous les Américains, mais surtout des enfants et des adolescents », a déclaré James P. Steyer, fondateur et PDG de Common Sense Media, dans un communiqué. « En apprenant ce qu’est le produit, comment il fonctionne, ses risques éthiques, ses limites et ses mauvaises utilisations, les législateurs, les éducateurs et le grand public peuvent comprendre à quoi ressemble une IA responsable. Si le gouvernement ne parvient pas à mettre l’IA à l’épreuve des enfants, les entreprises technologiques tireront profit de cette atmosphère non réglementée et libre, au détriment de la confidentialité de nos données, de notre bien-être et de la démocratie dans son ensemble », a-t-il ajouté.

IA