Cette semaine dans l’IA : les entreprises se soumettent volontairement aux lignes directrices sur l’IA – pour l’instant

Cette semaine dans l’IA : les entreprises se soumettent volontairement aux lignes directrices sur l’IA – pour l’instant

Suivre l’évolution d’un secteur aussi rapide que l’IA n’est pas une mince affaire. En attendant qu’une IA puisse le faire à votre place, voici un récapitulatif pratique des événements récents dans le monde de l’apprentissage automatique, ainsi que des recherches et expériences notables que nous n’avons pas couvertes par elles-mêmes.

Cette semaine, OpenAI, Anthropic, Google, Inflection, Microsoft, Meta et Amazon se sont volontairement engagés à poursuivre des objectifs communs en matière de sécurité et de transparence de l’IA, en prévision d’un décret de l’administration Biden.

Comme l’écrit mon collègue Devin Coldewey, il n’y a pas de règle ou d’application proposée ici – les pratiques convenues sont purement volontaires. Mais les engagements indiquent, dans les grandes lignes, les approches réglementaires et les politiques en matière d’intelligence artificielle que chaque fournisseur pourrait considérer comme modifiables aux États-Unis et à l’étranger.

Les entreprises se sont notamment engagées à effectuer des tests de sécurité des systèmes d’IA avant leur diffusion, à partager des informations sur les techniques d’atténuation de l’IA et à mettre au point des techniques de filigrane qui facilitent l’identification des contenus générés par l’IA. Elles ont également déclaré qu’elles investiraient dans la cybersécurité pour protéger les données privées de l’IA et faciliter le signalement des vulnérabilités, et qu’elles donneraient la priorité à la recherche sur les risques sociétaux tels que les préjugés systémiques et les problèmes de protection de la vie privée.

Ces engagements constituent une étape importante, même s’ils ne sont pas applicables. Mais on peut se demander s’il n’y a pas d’arrière-pensées de la part des signataires.

OpenAI aurait rédigé un mémo politique interne qui montre que l’entreprise soutient l’idée d’exiger des licences gouvernementales à tous ceux qui veulent développer des systèmes d’IA. Le PDG Sam Altman a évoqué cette idée pour la première fois lors d’une audition au Sénat américain en mai, au cours de laquelle il a soutenu la création d’une agence qui pourrait délivrer des licences pour les produits d’IA – et les révoquer si quelqu’un enfreint les règles établies.

Dans un récent entretien avec la presse, Anna Makanju, vice-présidente des affaires internationales d’OpenAI, a insisté sur le fait qu’OpenAI ne « poussait » pas à l’obtention de licences et que l’entreprise ne soutenait que les régimes de licence pour les modèles d’IA plus puissants que l’actuel GPT-4 d’OpenAI. Mais les licences émises par les gouvernements, si elles sont mises en œuvre de la manière proposée par l’OpenAI, ouvrent la voie à un conflit potentiel avec les startups et les développeurs de logiciels libres qui pourraient les considérer comme une tentative de rendre plus difficile la pénétration de l’espace par d’autres.

C’est Devin qui l’a le mieux exprimé, je pense, lorsqu’il m’a dit qu’il s’agissait de « jeter des clous sur la route derrière eux dans une course ». À tout le moins, cela illustre la nature double des entreprises d’IA qui cherchent à apaiser les régulateurs tout en façonnant la politique en leur faveur (dans ce cas, en désavantageant les petits challengers) dans les coulisses.

La situation est préoccupante. Mais si les décideurs politiques prennent leurs responsabilités, il est encore possible d’espérer des garanties suffisantes sans ingérence indue du secteur privé.

Voici d’autres articles sur l’IA parus ces derniers jours :

  • Le responsable de la confiance et de la sécurité de l’OpenAI démissionne : Dave Willner, un vétéran de l’industrie qui était le chef de la confiance et de la sécurité d’OpenAI, a annoncé dans un message sur LinkedIn qu’il avait quitté son poste et qu’il était passé à un rôle de conseiller. OpenAI a déclaré dans un communiqué qu’elle cherchait un remplaçant et que le directeur technique Mira Murati dirigerait l’équipe à titre intérimaire.
  • Instructions personnalisées pour ChatGPT : OpenAI a lancé des instructions personnalisées pour les utilisateurs de ChatGPT afin qu’ils n’aient pas à écrire les mêmes instructions au chatbot à chaque fois qu’ils interagissent avec lui.
  • L’IA de Google pour la rédaction de nouvelles : Google teste un outil qui utilise l’IA pour rédiger des articles de presse et a commencé à en faire la démonstration à des publications, selon un nouveau rapport du New York Times. Le géant de la technologie a présenté le système d’IA au New York Times, au Washington Post et au propriétaire du Wall Street Journal, News Corp.
  • Apple teste un chatbot de type ChatGPT : Selon un nouveau rapport de Mark Gurman de Bloomberg, Apple développe une IA pour défier OpenAI, Google et d’autres. Plus précisément, le géant de la technologie a créé un chatbot que certains ingénieurs appellent en interne « Apple GPT ».
  • Meta lance Llama 2 : Meta a dévoilé une nouvelle famille de modèles d’IA, Llama 2, conçue pour piloter des applications du type ChatGPT d’OpenAI, Bing Chat et autres chatbots modernes. Entraîné sur un mélange de données publiques, Meta affirme que les performances de Llama 2 se sont considérablement améliorées par rapport à la génération précédente de modèles Llama.
  • Les auteurs protestent contre l’IA générative : Les systèmes d’IA générative tels que ChatGPT sont formés à partir de données publiques, y compris des livres, et tous les créateurs de contenu ne sont pas satisfaits de cet arrangement. Dans une lettre ouverte signée par plus de 8 500 auteurs de fiction, de non-fiction et de poésie, les entreprises technologiques à l’origine des grands modèles linguistiques tels que ChatGPT, Bard, LLaMa et d’autres sont prises à partie pour avoir utilisé leurs écrits sans autorisation ni compensation.
  • Microsoft met Bing Chat à la disposition des entreprises : Lors de sa conférence annuelle Inspire, Microsoft a annoncé Bing Chat Enterprise, une version de son chatbot Bing Chat alimenté par l’IA avec des contrôles de confidentialité des données et de gouvernance axés sur l’entreprise. Avec Bing Chat Enterprise, les données du chat ne sont pas sauvegardées, Microsoft ne peut pas voir les données des employés ou de l’entreprise d’un client et les données des clients ne sont pas utilisées pour former les modèles d’IA sous-jacents.

Plus d’informations sur l’apprentissage automatique

Techniquement, il s’agit également d’un article d’actualité, mais il mérite d’être mentionné ici dans la section recherche. Fable Studios, qui réalisait auparavant des courts-métrages en images de synthèse et en 3D pour la RV et d’autres médias, a présenté un modèle d’IA appelé Showrunner qui (selon lui) peut écrire, réaliser, jouer et éditer une émission de télévision entière – dans leur démo, il s’agissait de South Park.

J’ai deux avis sur la question. D’une part, je pense qu’il est de mauvais goût de poursuivre cette démarche, a fortiori au cours d’une grande grève à Hollywood qui implique des questions de rémunération et d’intelligence artificielle. Bien que le PDG Edward Saatchi ait déclaré qu’il pensait que l’outil mettait le pouvoir entre les mains des créateurs, le contraire est également défendable. Quoi qu’il en soit, l’initiative n’a pas été particulièrement bien accueillie par les acteurs du secteur.

D’un autre côté, si quelqu’un du côté créatif (ce qu’est Saatchi) n’explore pas et ne démontre pas ces capacités, elles seront explorées et démontrées par d’autres qui auront moins de scrupules à les utiliser. Même si les affirmations de Fable sont un peu exagérées par rapport à ce qu’ils ont réellement montré (ce qui a de sérieuses limites), c’est comme le DALL-E original en ce sens qu’il a suscité des discussions et des inquiétudes même s’il ne remplaçait pas un véritable artiste. D’une manière ou d’une autre, l’IA aura sa place dans la production médiatique, mais pour toute une série de raisons, elle doit être abordée avec prudence.

Sur le plan politique, il y a peu, la loi sur l’autorisation de la défense nationale (National Defense Authorization Act) a été adoptée avec (comme d’habitude) des amendements politiques vraiment ridicules qui n’ont rien à voir avec la défense. L’un d’entre eux stipule que le gouvernement doit organiser un événement au cours duquel les chercheurs et les entreprises peuvent faire de leur mieux pour détecter les contenus générés par l’IA. Ce genre de choses s’approchant définitivement du niveau de « crise nationale », c’est probablement une bonne chose que cela ait été glissé là-dedans.

Chez Disney Research, on essaie toujours de trouver un moyen de faire le lien entre le numérique et le réel – à des fins de parc, vraisemblablement. Dans le cas présent, ils ont mis au point un moyen de reproduire les mouvements virtuels d’un personnage ou la capture de mouvements (par exemple pour un chien en images de synthèse dans un film) sur un robot réel, même si ce robot a une forme ou une taille différente. Ce système repose sur deux systèmes d’optimisation, chacun informant l’autre de ce qui est idéal et de ce qui est possible, un peu comme un ego et un super-ego. Il devrait être beaucoup plus facile de faire en sorte que les chiens robots se comportent comme des chiens normaux, mais il est bien sûr possible de généraliser cette approche à d’autres domaines.

Espérons que l’IA nous aidera à détourner le monde de l’exploitation minière des fonds marins, car c’est vraiment une mauvaise idée. Une étude multi-institutionnelle a mis à profit la capacité de l’IA à séparer le signal du bruit pour prédire l’emplacement de minéraux précieux dans le monde. Comme ils l’écrivent dans le résumé :

Dans ce travail, nous embrassons la complexité et le « désordre » inhérent aux systèmes géologiques, chimiques et biologiques entrelacés de notre planète en utilisant l’apprentissage automatique pour caractériser les modèles intégrés dans la multidimensionnalité de l’occurrence et des associations minérales.

L’étude a en fait prédit et vérifié les emplacements de l’uranium, du lithium et d’autres minéraux précieux. Et que dire de cette conclusion : le système « améliorera notre compréhension de la minéralisation et des environnements minéralisateurs sur Terre, à travers notre système solaire et à travers le temps profond ». Génial !

IA