Vietnam.vn - Nền tảng quảng bá Việt Nam

“¿Por qué es peligrosa la IA?”

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023

[anuncio_1]

De hecho, esta no es la primera vez que los científicos advierten sobre la posibilidad de que la inteligencia artificial se vuelva peligrosa para los humanos. En 2014, el famoso físico teórico británico Stephen Hawking dijo: “El pleno desarrollo de la inteligencia artificial podría destruir a la humanidad”. También dijo que los humanos serán completamente reemplazados por inteligencia artificial en los próximos 500 años si no tienen cuidado en la investigación y el desarrollo de esta peligrosa tecnología. Hace ocho años, en julio de 2015, más de 1.000 expertos en investigación en tecnología de inteligencia artificial, entre ellos Stephen Hawking, Elon Musk, Noam Chomsky... firmaron una petición advirtiendo sobre el riesgo de una carrera armamentista en el campo de la IA militar y pidiendo una prohibición total de las armas autónomas. El lanzamiento de la aplicación Chat GPT de OpenAI en noviembre de 2022 agregó otra señal de alarma a los riesgos existenciales de la inteligencia artificial. De hecho, lo que está haciendo Chat GPT demuestra que la IA es, hasta cierto punto, mucho más peligrosa de lo que los humanos alguna vez creyeron.

Los riesgos potenciales de la inteligencia artificial dependen de cómo se utilice. Inicialmente, la IA se desarrolló para ayudar a los humanos en su trabajo, especialmente con tareas aburridas y repetitivas como la clasificación de imágenes, la revisión de información, etc. Sin embargo, con el rápido desarrollo de la IA en los últimos tiempos, los científicos y expertos en tecnología están preocupados de que, si se desarrolla de forma incontrolable o se programa para un propósito incorrecto, la inteligencia artificial puede causar graves consecuencias para los humanos y la sociedad.

Riesgo de inseguridad

La inteligencia artificial podría representar una amenaza para la seguridad nacional y la seguridad personal. Elon Musk advirtió que la IA podría convertirse en una herramienta aterradora en la guerra. Si un país puede desarrollar un sistema de inteligencia artificial superior, puede usarlo para atacar a otros países. Stuart Russell, profesor de informática en la Universidad de California, ha pasado décadas investigando la inteligencia artificial. Advirtiendo sobre la amenaza a la seguridad que representa la IA, dijo que ahora podemos producir armas de ataque autónomas integrando y miniaturizando tecnologías existentes.

El experimento fue realizado por el profesor Stuart Russell y el Future of Life Institute (FLI) utilizando un robot asesino (slaughterbot), un dispositivo volador microscópico equipado con cámaras, sensores, software de procesamiento de imágenes, reconocimiento facial, un explosivo de 3 gramos y un microprocesador de alta velocidad, que permite analizar datos y reaccionar 100 veces más rápido que el cerebro humano. Según los parámetros de programación, el robot asesino accede continuamente a los datos de la nube para buscar información sobre el objetivo y encontrar la forma de acercarse a él. Una vez encontrado, se precipitará directamente hacia el objetivo a gran velocidad, activando el explosivo de 3gr, perforando profundamente el cráneo y matando a la víctima en un abrir y cerrar de ojos.

Fue solo un experimento con IA en su nivel más simple. Si se utiliza la IA para desarrollar métodos de ataque nuevos y más sofisticados, también podría aumentar las capacidades de ataque de los atacantes y conducir a consecuencias más graves que los ataques convencionales. Cuando la IA esté desarrollada hasta el punto de poder tomar sus propias decisiones para lidiar con cambios en el entorno que la rodea o buscar objetivos alternativos o ampliar su rango de objetivos, entonces los humanos podrían ya no estar seguros. Muchos colegas en el campo están de acuerdo con el profesor Stuart Russell y sostienen que aún hay posibilidades de prevenir un futuro tan sombrío, pero realmente no nos queda mucho tiempo.

El riesgo de que la IA se organice, se autentique y controle el sistema

La IA puede estar mal diseñada o “entrenada” incorrectamente a través del aprendizaje automático y puede realizar acciones no deseadas, causando daños a las personas y al medio ambiente. Un ejemplo específico es el siguiente: con el aprendizaje automático, la IA se está volviendo cada vez más inteligente. Cuando la inteligencia artificial alcanza un nivel de inteligencia que va desde apoyar sistemas importantes como la electricidad, el transporte, la salud , las finanzas, etc., puede dominar y controlar todos estos sistemas y tomar y ejecutar esas decisiones en situaciones de emergencia. Cuando la IA está "equipada" con propósitos "deliberados" adicionales (diseño equivocado), puede causar muchas consecuencias graves, como interrumpir el sistema de tráfico desactivando el sistema de semáforos o cortar la energía al sistema operativo del tren urbano, provocando una serie de accidentes, causando cortes de energía generalizados...

Se han realizado muchas películas de Hollywood y del ámbito internacional basadas en este escenario. Sin embargo, con la actual tecnología de inteligencia artificial, esto ya no es una perspectiva lejana sino que puede convertirse en una realidad. Elon Musk cree que si se permite que la IA se desarrolle sin control, hasta el punto de que pueda automatizar decisiones sin intervención humana, podría ser una amenaza para la supervivencia humana. Por eso, él y miles de expertos en tecnología firmaron una carta exigiendo detener y controlar estrictamente el desarrollo de la IA de forma transparente. Según Elon Musk, los sistemas de inteligencia artificial son complejos, difíciles de entender y muy difíciles de controlar. Sin transparencia, el uso de la inteligencia artificial con fines poco éticos que causan daño a los humanos es inevitable.

Riesgo de pérdida de empleo, violación de la privacidad

Cuando se utiliza para recopilar información personal, la tecnología de inteligencia artificial puede emplearse para violar la privacidad, realizar actividades de desinformación y propagar información falsa que afecte situaciones sociales y la estabilidad política. El incidente del sistema de red de la Oficina de Administración de Personal (OPM) del gobierno de Estados Unidos que fue atacado por piratas informáticos es digno de mención para cualquier país u organización cuando datos personales detallados y altamente sensibles de 21,5 millones de funcionarios actuales y retirados de Estados Unidos, información sobre sus cónyuges, datos sobre personas que han solicitado empleos gubernamentales como estado de salud, lugar de residencia, trabajo, huellas dactilares e información financiera cayeron en manos de los piratas informáticos. Pero hay una realidad aún más aterradora cuando la CIA descubrió que el ladrón de datos de la OPM utilizó tecnología de inteligencia artificial para escanear, falsificar información personal y crear espías virtuales para robar datos. La información robada será analizada, clasificada y explotada mediante tecnología Bigdata para fines específicos. La tecnología de inteligencia artificial ayuda a los ladrones de información a acortar el tiempo que lleva explotar la información porque los humanos no son capaces de procesar una cantidad tan grande de información en tan poco tiempo.

Además de los peligros existentes mencionados anteriormente, la tecnología IA también crea otros riesgos como: La dependencia excesiva de ella, lo que lleva a que los humanos pierdan el control de la situación y reduzcan la capacidad de tomar decisiones. La inteligencia artificial también provocará que millones, incluso cientos de millones de personas pierdan su empleo, especialmente en trabajos puramente manuales y con poco contenido de conocimiento. Como resultado, los problemas sociales graves como el desempleo, la delincuencia, la brecha entre ricos y pobres... se harán aún más profundos. Además, la fiabilidad también es un tema a considerar. La fiabilidad de las decisiones en campos altamente especializados como la medicina, la justicia penal... es extremadamente importante. Cuando se utiliza IA para ayudar a tomar decisiones en áreas donde la tecnología no es confiable, opera con datos sesgados hacia una persona o grupo de personas, o están intencionalmente distorsionados, esas decisiones tienen el potencial de tener graves consecuencias.

¿Cómo prevenir?

Los riesgos antes mencionados son la razón por la que Elon Musk y los expertos en tecnología están preocupados por el desarrollo descontrolado de la IA y escribieron una carta pidiendo a las Naciones Unidas y a las organizaciones internacionales que controlen estrictamente, garanticen la seguridad y la ética en el desarrollo de la IA; Fortalecer la cooperación internacional para garantizar que la tecnología de IA se utilice en beneficio de las personas y la sociedad. Algunas medidas específicas que se pueden identificar son:

- Control de confiabilidad del sistema: la IA debe diseñarse y desarrollarse para garantizar la seguridad y confiabilidad a través de métodos de control, monitoreo y pruebas de calidad rigurosos, regulares y continuos para garantizar que el sistema de IA funcione de acuerdo con las expectativas humanas y evite efectos no deseados por su falta de confiabilidad.

- La tecnología de inteligencia artificial necesita ser programada para operar de acuerdo con valores éticos y normas sociales. Estas reglas y normas deben establecerse claramente y deben supervisarse para garantizar que no produzcan ningún efecto malo o perjudicial para las personas o las organizaciones. El proceso de análisis, evaluación del impacto y monitoreo del funcionamiento de los sistemas de IA también debe realizarse periódicamente para garantizar un funcionamiento estándar, no violar ni erosionar los valores comunes de toda la sociedad, no causar impactos negativos y asegurar la transmisión de conocimientos y valores correctos.

izquierda centro bien del
El periodismo es una de las industrias más afectadas por la inteligencia artificial. En el futuro no será necesario que los MC lean en OFF para los programas de radio, e incluso prevalecerán los MC virtuales que dirijan en ON para los programas de televisión.

- Pausar el “entrenamiento” durante al menos 6 meses para que los sistemas de inteligencia artificial reevalúen todo el problema. Esta suspensión debe ser pública, controlada y deben involucrar a todos los actores clave involucrados en esta formación. De ser necesario, los gobiernos deberían emitir prohibiciones temporales. Esto no significa detener por completo el desarrollo de la IA, sino simplemente hacer una pausa en la peligrosa carrera para avanzar hacia otros modelos de desarrollo, haciendo que los sistemas de IA sean más precisos, seguros, comprensibles, transparentes, relevantes, confiables y leales. Se trata de una solución integral que Elon Musk y sus colegas pidieron en la carta abierta, pero su viabilidad no es muy alta. Es difícil para todos los laboratorios independientes cumplir con un llamamiento tan no vinculante y transnacional.

- Fortalecer la cooperación y el intercambio de información entre países y organizaciones independientes de investigación en IA para garantizar que la IA se desarrolle y utilice de forma segura en el futuro. La cooperación y el intercambio de información son también medidas para advertir y prevenir con prontitud cualquier riesgo que pueda surgir en el futuro.

En general, la IA ha estado y está presente en todas partes a nuestro alrededor y las historias como la de la inteligencia artificial escribiendo poesía, música y artículos se han convertido en realidad y ya no son ciencia ficción. El autor de este artículo ha utilizado tecnología de inteligencia artificial en computadoras y teléfonos para ayudar, haciendo que su proceso de escritura sea más cómodo y rápido. En concreto, el encabezamiento de este artículo y algunas ideas fueron sugeridas por IA y, más concretamente, todas las fotografías utilizadas en este artículo fueron generadas por IA. La tecnología de inteligencia artificial es muy útil para mejorar la calidad del trabajo y la vida humana, pero es necesario controlarla estrictamente para que no se salga de control y se convierta en un riesgo de reemplazar a los humanos en el futuro, como predijo el físico teórico Stephen Hawking.

Artículo y fotos: HUU DUONG

[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Misma categoría

Ha Giang: la belleza que atrapa los pies de la gente
Pintoresca playa "infinita" en el centro de Vietnam, popular en las redes sociales.
Sigue el sol
Ven a Sapa para sumergirte en el mundo de las rosas.

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto