La experiencia de otros países muestra que para regular cuestiones relacionadas con la IA, incluido el control de riesgos en el desarrollo, despliegue y aplicación de la IA, las regulaciones legales por sí solas no son suficientes, sino que es necesario aplicar otras herramientas de política, llamadas "derecho blando", como principios éticos, códigos de conducta y directrices técnicas de una industria.
Las medidas de control deben ser apropiadas al nivel de riesgo para evitar el control excesivo. Para los niveles más altos de riesgo, son necesarias regulaciones legales estrictas y obligatorias. En el siguiente nivel de riesgo, los requisitos legales deberían ser “más suaves”. Para riesgos bajos, simplemente aplique pautas, estándares técnicos y códigos de conducta voluntarios. El control de riesgos de la IA debe basarse en el alcance y el nivel de poder de los sujetos; La entidad que ostenta más poder, como el Estado o las BigTech, debe estar sujeta a un control más estricto.
Las oportunidades y los riesgos de la IA para la sociedad y los seres humanos se pueden ajustar y responder a ellos en cada etapa del ciclo de vida del sistema de IA, incluidos: investigación, desarrollo, implementación y aplicación. En el ciclo de vida de un sistema de IA, es necesario definir de forma clara y específica las responsabilidades de cada sujeto: desarrollador de IA, implementador de la implementación/aplicación, usuario final.
Para construir un marco legal general sobre IA se necesitan los siguientes contenidos principales. En primer lugar , proporcionar un concepto claro de IA, sistemas de IA y modelos de IA como punto de partida para otro contenido regulatorio sobre esta tecnología. En segundo lugar, identificar los principios fundamentales de la gobernanza de la IA, incluidos: tomar a las personas, los valores humanos y los derechos humanos como base para todo el ciclo de vida de los sistemas de IA, la transparencia, la responsabilidad y la confiabilidad. En tercer lugar, identificar los niveles de riesgo y las medidas apropiadas para ellos. En cuarto lugar, identificar las responsabilidades específicas de las entidades relevantes en el ciclo de vida de los sistemas de IA.
En particular, los sistemas de IA deben restringirse en los casos en que representen una amenaza para la vida o la seguridad de personas o grupos. Los sistemas de IA que causan discriminación, por ejemplo, por edad, género, religión o mediante puntuaciones sociales que resultan en un trato adverso, deberían prohibirse. El marco jurídico general debería exigir transparencia algorítmica en los procesos de toma de decisiones en materia de IA para evitar sesgos y resultados discriminatorios; Ejemplo de algoritmo de reclutamiento.
Junto con el marco legal general, es necesario emitir documentos legales, posiblemente decretos y circulares, que proporcionen regulaciones más específicas sobre cuestiones técnicas y especializadas relacionadas con la IA. Por ejemplo, ajustar los algoritmos para garantizar la transparencia, la equidad y evitar la discriminación; regular el uso de la tecnología de reconocimiento facial; El uso de IA en algunas áreas tiene muchos riesgos potenciales como el reclutamiento, el uso, la evaluación laboral...
Dada la naturaleza transversal de la IA, se deben evitar los enfoques fragmentados para su regulación. Para coordinar a las diferentes agencias, se puede considerar establecer un mecanismo interdisciplinario que sea representativo, efectivo y que equilibre diferentes puntos de vista y perspectivas, de modo que las políticas estén en armonía con diferentes intereses amplios. Es necesario involucrar a diversos actores sociales desde el comienzo mismo del ciclo de vida del sistema de IA; no sólo expertos técnicos, empresas, sino también expertos legales, expertos en derechos humanos, representantes de comunidades, organizaciones sociales y otros grupos que puedan verse afectados por los sistemas de IA.
La promulgación de políticas regulatorias de la IA debe apuntar a la justicia social, garantizar derechos y beneficios e involucrar a grupos vulnerables como las personas con discapacidad, las minorías étnicas, los pobres, las mujeres y los niños. Se necesitan medidas de protección especiales para estos grupos vulnerables; Los sistemas de IA que explotan vulnerabilidades, potencialmente causando daños psicológicos o conductuales, necesitan ser regulados estrictamente. Esto incluye garantizar que las tecnologías de IA no manipulen ni coaccionen a individuos vulnerables para que actúen en contra de sus intereses.
Fuente: https://daibieunhandan.vn/kiem-soat-rui-ro-cua-tri-tue-nhan-tao-mot-cach-cong-bang-post411511.html
Kommentar (0)