La Commission fédérale du commerce des États-Unis (FTC) étend son enquête sur OpenAI en raison des inquiétudes selon lesquelles ChatGPT pourrait violer les réglementations de protection des consommateurs.
La demande de 20 pages adressée à la société basée à San Francisco pour qu'elle explique comment elle évalue les risques de ses modèles d'IA constitue la menace juridique la plus importante à ce jour pour les opérations américaines d'OpenAI, alors que la société propriétaire de ChatGPT lance une campagne mondiale pour façonner l'avenir de la réglementation de l'IA.
En outre, les autorités ont également demandé à OpenAI de fournir des détails sur toutes les plaintes reçues par l’entreprise concernant le produit faisant des déclarations « fausses, trompeuses, discréditantes ou nuisibles » aux personnes.
En mars, l'entreprise à l'origine de ChatGPT a révélé une faille de sécurité dans son système, permettant à certains utilisateurs de consulter les informations de paiement et l'historique des conversations d'autres utilisateurs. La FTC enquête actuellement pour déterminer si cet incident a enfreint les règles de protection des consommateurs.
Efforts pour contenir la Silicon Valley
La FTC est en train de devenir la « police fédérale » de la Silicon Valley, après avoir infligé de lourdes amendes à Meta, Amazon et Twitter pour des violations présumées des réglementations de protection des consommateurs.
La présidente de la FTC, Lina Khan, a témoigné devant la commission judiciaire de la Chambre des représentants alors que le plan ambitieux de l'agence visant à maîtriser le pouvoir de la Silicon Valley a subi de graves pertes devant les tribunaux.
Cette semaine également, un juge fédéral a rejeté la tentative de la FTC de bloquer l'acquisition du fabricant de jeux Activision par Microsoft pour 69 milliards de dollars.
Parallèlement, Samuel Levine, directeur du Bureau de la protection des consommateurs de la FTC, a déclaré que l'agence était prête à faire face aux menaces émergentes. « La FTC accueille favorablement l'innovation, mais cela ne signifie pas pour autant qu'elle soit imprudente. Nous sommes prêts à utiliser tous les outils à notre disposition pour lutter contre les pratiques néfastes dans ce domaine. »
L'agence met en garde contre la fraude à l'IA, qui consiste à utiliser l'IA artificielle pour manipuler les utilisateurs potentiels ou exagérer les capacités d'un produit. Parmi les informations que la FTC demande à OpenAI figurent des études, des tests ou des enquêtes connexes évaluant la perception des utilisateurs quant à la « précision ou la fiabilité des résultats » produits par l'outil d'IA.
(Selon le Washington Post)
Source
Comment (0)