Se dice que el Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk utiliza IA para guiar las decisiones de reducción de costos. Esta táctica plantea preocupaciones sobre seguridad, sesgo y errores.
Elon Musk ha dicho que su objetivo es reducir rápidamente el déficit presupuestario de Estados Unidos en al menos un billón de dólares.
Los informes de los medios que citan fuentes anónimas sugieren que el Ministerio DOGE está utilizando IA para acelerar las decisiones de reducción de costos.
David Evan Harris, un experto en inteligencia artificial que solía trabajar para la división de inteligencia artificial responsable de Meta, llama a esto una "idea terrible".
Los expertos dicen que el enfoque refleja la mentalidad de “cortar primero, arreglar después” que Musk adoptó en Twitter hace dos años, lo que provocó miles de pérdidas de empleos, fallas técnicas, demandas y controversias que han erosionado la red social.
Sin embargo, las consecuencias de desmantelar agencias, sistemas y servicios gubernamentales serían mucho más graves que las de una empresa tecnológica.
Uso de IA para orientar las decisiones de reducción de costes
Según el Washington Post, a principios de febrero, los miembros de DOGE introdujeron datos confidenciales del Departamento de Educación en un software de inteligencia artificial para analizar los programas y los gastos del departamento.
Wired informó que los empleados de DOGE desarrollaron un chatbot de inteligencia artificial para la Administración de Servicios Generales (GSA) llamado GSAi, que ayuda a analizar grandes volúmenes de datos de contratos y adquisiciones.
Otro informe de NBC News dijo que DOGE está considerando usar IA para analizar los comentarios laborales de los empleados federales para determinar qué puestos ya no son necesarios.
En febrero, Wired informó que DOGE había modificado el software AutoRIF del Departamento de Defensa para clasificar automáticamente al personal a efectos de despido.
La semana pasada, 21 empleados de la Agencia de Servicios Digitales de Estados Unidos (USDS) renunciaron en protesta. Acusaron al personal de DOGE de manejar mal datos confidenciales y de interrumpir sistemas críticos.
Sin embargo, la secretaria de prensa de la Casa Blanca, Karoline Leavitt, afirmó que cualquiera que piense que las protestas, las demandas o las acciones legales pueden detener al presidente Trump "debe haber sido un ignorante durante los últimos años", según AP.
En X, Musk también llamó a estas personas “conservadores” que se niegan a regresar a la oficina.
Parte del problema, según Amanda Renteria, directora ejecutiva de Code for America, una organización sin fines de lucro que desarrolla herramientas digitales y crea capacidad técnica para los gobiernos, es que crear herramientas de IA efectivas requiere una comprensión profunda de los datos utilizados para el entrenamiento, algo que el equipo de DOGE no tiene.
Los resultados que producen las herramientas de IA pueden ser inútiles o la tecnología carece de la información y el contexto para tomar la decisión correcta. Podría tener un problema de “alucinaciones”.
Según muchas agencias de noticias, el personal de DOGE es un grupo de jóvenes de veintitantos años, procedentes de otras empresas de Musk.
Preocupaciones en torno al uso de IA por parte de DOGE
Los expertos temen que la IA pueda replicar sesgos que a menudo ocurren en los humanos. Por ejemplo, algunas herramientas de reclutamiento de inteligencia artificial favorecen a candidatos blancos y masculinos sobre otros candidatos.
Si se utiliza IA para determinar qué puestos o proyectos eliminar, significa que algunas personas o puestos de trabajo importantes serán eliminados simplemente por su apariencia o por a quién sirven.
Harris analizó el ejemplo del uso de IA para evaluar la retroalimentación de los empleados federales: los empleados talentosos cuya lengua materna no es el inglés pueden ser juzgados por la IA como inferiores a los angloparlantes.
Si bien estas preocupaciones no son nuevas, pueden tener consecuencias más graves si las cosas salen mal en el gobierno. El propio Musk admite que DOGE puede cometer errores y se ha retirado de algunos esfuerzos importantes como la prevención del ébola.
No está claro si la IA estuvo involucrada en esta toma de decisiones.
Es innegable que la IA ayuda a aumentar la eficiencia del trabajo, sintetizar y analizar grandes cantidades de información. Pero si no se utiliza con cuidado, podría poner en riesgo datos gubernamentales confidenciales o información personal de las personas.
Sin la protección adecuada y restricciones sobre quién puede acceder al sistema, los datos introducidos en un programa de IA podrían aparecer inesperadamente en respuestas a otras solicitudes y caer en manos de personas que no deberían saberlo.
Harris estaba particularmente preocupado por el manejo que DOGE hacía de los registros de personal, que describió como entre “los documentos más sensibles de cualquier organización”.
Sin embargo, quizás la preocupación más urgente, según los expertos, es la falta de transparencia en torno al uso de IA por parte de DOGE. ¿Qué herramientas utiliza el Ministerio, cómo se monitorea, hay humanos verificando y evaluando los resultados… son preguntas aún abiertas.
Julia Stoyanovich, profesora asociada de informática y directora del Centro de IA Responsable de la Universidad de Nueva York, sostiene que para que la IA sea efectiva, los usuarios deben tener claros sus objetivos para la tecnología y probar completamente si el sistema de IA satisface esas necesidades.
"Tengo muchísima curiosidad por escuchar al equipo de DOGE explicar cómo miden el rendimiento y la exactitud de los resultados", compartió.
(Según CNN)
[anuncio_2]
Fuente: https://vietnamnet.vn/hiem-hoa-khi-bo-doge-cua-elon-musk-ra-quyet-dinh-dua-tren-ai-2377729.html
Kommentar (0)