Le PDG d'OpenAI a également exhorté le Congrès américain à disposer prochainement de réglementations et de lignes directrices pour réglementer ce domaine technologique.
Ces derniers mois, les entreprises technologiques, grandes et petites, se sont empressées de dépenser des milliards de dollars pour commercialiser des produits d'IA. Certains critiques craignent que cette technologie n'exacerbe des problèmes sociaux tels que les préjugés et la désinformation, outre les craintes que l'IA puisse mettre fin à l'existence humaine.
« Il n’y a aucun moyen de remettre le génie dans la bouteille, ce domaine a véritablement explosé à l’échelle mondiale », a déclaré le sénateur Cory Booker, l’un des nombreux législateurs à la recherche de réponses à la question de savoir comment réglementer l’IA.
Parallèlement, la sénatrice Mazie Hirono a souligné le risque croissant de désinformation à l'approche des élections américaines de 2024. « Imaginez ce qui se passerait si, à l'approche du jour du scrutin, les gens voyaient une photo de l'ancien président Trump arrêté par la police de New York et qu'elle devenait virale. »
Lors de sa première apparition devant le Congrès, Altman a suggéré que les États-Unis devraient envisager des exigences de licence et des tests pour le développement de modèles d’IA, en particulier d’algorithmes capables de persuader ou de manipuler les humains.
Dans le même temps, les entreprises devraient également avoir le droit de déclarer qu’elles ne souhaitent pas que leurs données soient utilisées dans la formation de l’IA, à l’exception des documents accessibles au public sur Internet.
La Maison Blanche tente de relever le défi réglementaire posé par l’IA, en réunissant les PDG des plus grandes entreprises technologiques, dont Altman, pour discuter de la question.
Plus tôt, Reuters avait rapporté qu'un employé d'OpenAI avait récemment proposé la création d'une agence américaine de délivrance de licences d'IA, éventuellement appelée Office of AI Infrastructure Safety and Security (OASIS).
(Selon Reuters)
Source
Comment (0)