Il n’est pas nécessaire de réinventer la roue pour réglementer l’IA de manière responsable

Il n’est pas nécessaire de réinventer la roue pour réglementer l’IA de manière responsable

Nous vivons l’une des révolutions technologiques les plus transformatrices du siècle dernier. Pour la première fois depuis le boom technologique des années 2000 (ou même depuis la révolution industrielle), nos fonctions sociétales essentielles sont perturbées par des outils jugés innovants par certains et inquiétants par d’autres. Si les avantages perçus continueront de polariser l’opinion publique, l’impact généralisé de l’IA sur l’avenir du travail et de la communication ne fait guère de doute.

Les investisseurs institutionnels ont tendance à être d’accord. Rien qu’au cours des trois dernières années, les investissements en capital-risque dans l’IA générative ont augmenté de 425 %, atteignant jusqu’à 4,5 milliards de dollars en 2022, selon PitchBook. Cet engouement récent pour le financement est principalement dû à la convergence technologique généralisée dans différents secteurs. Des géants du conseil comme KPMG et Accenture investissent des milliards dans l’IA générative pour renforcer leurs services à la clientèle. Les compagnies aériennes utilisent de nouveaux modèles d’IA pour optimiser leurs offres d’itinéraires. Même les entreprises de biotechnologie utilisent désormais l’IA générative pour améliorer les thérapies à base d’anticorps pour les maladies mortelles.

Naturellement, cette technologie perturbatrice est passée rapidement sur le radar de la réglementation. Des personnalités comme Lina Khan, de la Federal Trade Commission, ont affirmé que l’IA posait de sérieux risques sociétaux dans tous les secteurs, citant l’augmentation de l’incidence de la fraude, la discrimination automatisée et l’inflation collusive des prix si elle n’est pas contrôlée.

L’exemple le plus largement discuté de la réglementation de l’IA est peut-être le récent témoignage de Sam Altman devant le Congrès, où il a affirmé que « l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants ». En tant que PDG de l’une des plus grandes entreprises d’IA au monde, M. Altman s’est rapidement engagé auprès des législateurs pour s’assurer que la question de la réglementation évolue vers une discussion entre les secteurs public et privé. Il s’est depuis joint à d’autres chefs d’entreprise pour rédiger une lettre ouverte commune affirmant que « l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires ».

Naturellement, cette technologie perturbatrice est passée rapidement sur le radar de la réglementation.

Les technologues comme M. Altman et les régulateurs comme M. Khan s’accordent à dire que la réglementation est essentielle pour garantir des applications technologiques plus sûres, mais aucune des deux parties n’a tendance à se mettre d’accord sur le champ d’application. En général, les fondateurs et les entrepreneurs recherchent des restrictions limitées afin de créer un environnement économique propice à l’innovation, tandis que les fonctionnaires s’efforcent d’imposer des limites plus larges afin de protéger les consommateurs.

Cependant, les deux parties ne se rendent pas compte que dans certains domaines, la réglementation a été un jeu d’enfant pendant des années. L’avènement de l’internet, des moteurs de recherche et des médias sociaux a donné lieu à une vague de contrôles gouvernementaux tels que la loi sur les télécommunications, la loi sur la protection de la vie privée des enfants en ligne (COPPA) et la loi californienne sur la protection de la vie privée des consommateurs (CCPA). Plutôt que d’instituer un cadre général de politiques restrictives qui pourraient entraver l’innovation technologique, les États-Unis maintiennent un patchwork de politiques qui intègrent des lois fondamentales de longue date telles que la propriété intellectuelle, la vie privée, les contrats, le harcèlement, la cybercriminalité, la protection des données et la cybersécurité.

Ces cadres s’inspirent souvent de normes technologiques établies et bien acceptées et encouragent leur adoption et leur utilisation dans les services et les technologies naissantes. Ils garantissent également l’existence d’organisations de confiance qui appliquent ces normes au niveau opérationnel.

Prenons par exemple les protocoles Secure Sockets Layer (SSL)/Transport Layer Security (TLS). À la base, SSL/TLS sont des protocoles de cryptage qui garantissent que les données transférées entre les navigateurs et les serveurs restent sécurisées (ce qui permet de se conformer aux exigences de cryptage de la CCPA, du règlement général sur la protection des données de l’UE, etc.) ). Cela s’applique aux informations sur les clients, aux détails des cartes de crédit et à toutes les formes de données personnelles que des acteurs malveillants peuvent exploiter. Les certificats SSL sont délivrés par des autorités de certification (AC), qui servent de validateurs pour prouver que les informations transférées sont authentiques et sécurisées.

La même relation symbiotique peut et doit exister pour l’IA. L’application de normes de licence agressives de la part d’entités gouvernementales entraînera l’arrêt de l’industrie et ne profitera qu’aux acteurs les plus utilisés comme OpenAI, Google et Meta, créant ainsi un environnement anticoncurrentiel. Une norme de certification légère et facile à utiliser, de type SSL, régie par des autorités de certification indépendantes, protégerait les intérêts des consommateurs tout en laissant une place à l’innovation.

Ces mesures pourraient être prises pour que l’utilisation de l’IA reste transparente pour les consommateurs et pour indiquer clairement si un modèle est exploité, quel est le modèle fondamental en jeu et s’il provient d’une source fiable. Dans un tel scénario, le gouvernement a encore un rôle à jouer en co-créant et en promouvant ces protocoles pour en faire des normes largement utilisées et acceptées.

À un niveau fondamental, la réglementation est en place pour protéger les principes de base tels que la vie privée des consommateurs, la sécurité des données et la propriété intellectuelle, et non pour freiner la technologie avec laquelle les utilisateurs choisissent de s’engager quotidiennement. Ces principes fondamentaux sont déjà protégés sur l’internet et peuvent l’être avec l’IA en utilisant des structures similaires.

Depuis l’avènement de l’internet, la réglementation a réussi à maintenir un juste milieu entre la protection des consommateurs et l’incitation à l’innovation, et les acteurs gouvernementaux ne devraient pas adopter une approche différente simplement en raison du développement technologique rapide. Réglementer l’IA ne devrait pas consister à réinventer la roue, quel que soit le discours politique polarisé.

IA