De hecho, esta no es la primera vez que los científicos advierten sobre la posibilidad de que la inteligencia artificial se vuelva peligrosa para los humanos. En 2014, el famoso físico teórico británico Stephen Hawking afirmó: «El desarrollo integral de la inteligencia artificial podría destruir a la humanidad». También afirmó que los humanos serán completamente reemplazados por la inteligencia artificial en los próximos 500 años si no son cuidadosos en el proceso de investigación y desarrollo de esta peligrosa tecnología. Hace ocho años, en julio de 2015, más de 1000 expertos en tecnología de inteligencia artificial, entre ellos Stephen Hawking, Elon Musk y Noam Chomsky, firmaron una petición advirtiendo sobre el riesgo de una carrera armamentística en el campo de la IA militar y exigiendo la prohibición total de las armas autónomas. El lanzamiento de Chat GPT por parte de OpenAI en noviembre de 2022 ha añadido otra señal de alerta a los peligros existenciales de la inteligencia artificial. De hecho, lo que Chat GPT está haciendo demuestra que la IA es, en cierta medida, mucho más peligrosa de lo que se creía.
Los riesgos potenciales de la inteligencia artificial dependen de su uso. La IA se desarrolló inicialmente para asistir a los humanos en su trabajo, especialmente en tareas tediosas y repetitivas como la clasificación de imágenes y la revisión de información. Sin embargo, con el rápido desarrollo de la IA en los últimos tiempos, a científicos y expertos en tecnología les preocupa que, si se desarrolla sin control o se programa con fines inadecuados, la inteligencia artificial pueda tener graves consecuencias para los seres humanos y la sociedad.
Riesgo de inseguridad
La inteligencia artificial podría representar una amenaza para la seguridad nacional y personal. Elon Musk advirtió que la IA podría convertirse en una herramienta aterradora en la guerra. Si un país logra desarrollar un sistema de inteligencia artificial superior, podría usarlo para atacar a otros países. Stuart Russell, profesor de informática en la Universidad de California, ha dedicado décadas a la investigación de la inteligencia artificial. Advirtiendo sobre la amenaza que supone la IA para la seguridad, afirmó que ahora podemos producir armas de ataque autónomas integrando y miniaturizando las tecnologías existentes.
El experimento fue realizado por el profesor Stuart Russell y el Future of Life Institute (FLI) con un robot asesino (slaughterbot), un dispositivo volador microscópico equipado con cámaras, sensores, software de procesamiento de imágenes, reconocimiento facial, un explosivo de 3 gramos y un microprocesador de alta velocidad. Este dispositivo permite analizar datos y responder 100 veces más rápido que el cerebro humano. Según los parámetros de programación, el robot asesino accede continuamente a datos en la nube para buscar información sobre el objetivo y encontrar la manera de acercarse. Una vez encontrado, se lanzará directamente hacia él a gran velocidad, activará el explosivo de 3 gramos, perforará profundamente el cráneo y matará a la víctima en un abrir y cerrar de ojos.
Es solo un experimento con IA en su nivel más básico. Si la IA se utiliza para desarrollar métodos de ataque nuevos y más sofisticados, también podría aumentar la capacidad de ataque de los atacantes y tener consecuencias más graves que los ataques convencionales. Cuando la IA se desarrolle hasta el punto de poder tomar decisiones por sí sola para afrontar los cambios en el entorno, encontrar objetivos alternativos o ampliar su alcance, quizá la humanidad ya no esté a salvo. Muchos colegas en este campo coinciden con el profesor Stuart Russell y creen que aún existe la posibilidad de prevenir un futuro tan sombrío, pero realmente no nos queda mucho tiempo.
El riesgo de que la IA se organice, se autentique y controle el sistema
La IA puede diseñarse incorrectamente o "entrenarse" inadecuadamente a través del aprendizaje automático y puede realizar acciones no deseadas, causando daños a las personas y al medio ambiente. Ejemplos específicos son los siguientes: Con el aprendizaje automático, la IA se está volviendo cada vez más inteligente. Cuando la inteligencia artificial alcanza un nivel de inteligencia que va desde el soporte de sistemas importantes como la electricidad, el transporte, la atención médica , las finanzas, etc., puede dominar y controlar todos estos sistemas y tomar y ejecutar decisiones en situaciones de emergencia. Cuando la IA está "equipada" con propósitos "ambiciosos" adicionales (mal diseñados), puede causar muchas consecuencias graves, como interrumpir el sistema de tráfico desactivando el sistema de semáforos o cortando la energía al sistema operativo del tren urbano, causando una serie de accidentes, causando apagones generalizados, etc.
Se han realizado numerosas películas de Hollywood y de otros países basadas en este escenario. Sin embargo, con la tecnología actual de IA, esto ya no es una posibilidad remota, sino una realidad. Elon Musk cree que si se permite que la IA se desarrolle sin control, hasta el punto de automatizar decisiones sin intervención humana, esto podría representar una amenaza para la supervivencia humana. Por ello, él y miles de expertos en tecnología firmaron una carta solicitando una suspensión temporal y un control estricto del proceso de desarrollo de la IA de forma transparente. Según Elon Musk, los sistemas de inteligencia artificial son muy complejos, difíciles de comprender y controlar. Sin transparencia, el uso de la inteligencia artificial con fines poco éticos, causando daños a los seres humanos, sin duda ocurrirá.
Riesgo de pérdida de empleo, violación de la privacidad
Al utilizarse para recopilar información personal, la tecnología de inteligencia artificial puede violar la privacidad, realizar actividades de desinformación y difundir información falsa que afecta la estabilidad social y política. El incidente en el que la red de la Oficina de Administración de Personal (OPM) del gobierno estadounidense fue atacada por hackers es digno de mención para cualquier país u organización, ya que datos personales detallados y altamente sensibles de 21,5 millones de funcionarios estadounidenses, tanto en activo como retirados, información sobre sus cónyuges, datos de personas que han solicitado empleos gubernamentales, como su estado de salud, residencia, empleo, huellas dactilares e información financiera, cayeron en manos de hackers. Sin embargo, existe una realidad aún más aterradora: la CIA descubrió que el ladrón de datos de la OPM utilizó tecnología de inteligencia artificial para escanear, falsificar información personal y crear espías virtuales para robar datos. La información robada será analizada, clasificada y explotada mediante tecnología de macrodatos para fines específicos. La tecnología de inteligencia artificial ayuda al ladrón de información a acortar el tiempo necesario para explotar la información, ya que los humanos no son capaces de procesar una cantidad tan grande de información en tan poco tiempo.
Además de los peligros existentes mencionados anteriormente, la tecnología de IA también crea otros riesgos tales como: Dependencia excesiva de ella, lo que lleva a la consecuencia de que las personas pierdan el control de la situación y reduzcan la capacidad de tomar decisiones. La inteligencia artificial también causará que millones, incluso cientos de millones de personas pierdan sus trabajos, especialmente para trabajos puramente manuales con poco contenido de conocimiento. Como resultado, los problemas sociales graves como el desempleo, la delincuencia, la brecha entre ricos y pobres... se harán más profundos. Además, la confiabilidad también es un problema que debe mencionarse. La confiabilidad de las decisiones en campos altamente especializados como la medicina, el derecho penal... es extremadamente importante. Cuando se utiliza IA para ayudar a tomar decisiones en aquellos campos donde la tecnología no es lo suficientemente confiable, opera con base en datos que tienden a favorecer a una o un grupo de personas o está distorsionada intencionalmente, es probable que esas decisiones causen graves consecuencias.
¿Cómo prevenir?
Los riesgos mencionados anteriormente son la razón por la que Elon Musk y los expertos en tecnología están preocupados por el desarrollo descontrolado de la IA y escribieron una carta instando a las Naciones Unidas y a las organizaciones internacionales a controlar estrictamente, garantizar la seguridad y la ética en el desarrollo de la IA, y a fortalecer la cooperación internacional para asegurar que la tecnología de IA se utilice de forma beneficiosa para los seres humanos y la sociedad. Algunas medidas específicas son:
- Control de confiabilidad del sistema: la IA debe diseñarse y desarrollarse para garantizar la seguridad y confiabilidad a través de métodos de control, monitoreo y pruebas de calidad rigurosos, regulares y continuos para garantizar que el sistema de IA funcione de acuerdo con las expectativas humanas y evite efectos no deseados por su falta de confiabilidad.
La tecnología de inteligencia artificial debe programarse para operar conforme a valores éticos y normas sociales. Dichas reglas y estándares deben estar claramente establecidos y deben supervisarse para garantizar que no perjudiquen a las personas ni a las organizaciones. El análisis, la evaluación del impacto y la supervisión del funcionamiento de los sistemas de IA también deben llevarse a cabo periódicamente para garantizar su correcto funcionamiento, no vulneren ni erosionen los valores comunes de toda la sociedad, no causen impactos negativos y garanticen la transmisión de conocimientos y valores correctos.
Una pausa en el entrenamiento de los sistemas de IA durante al menos seis meses para permitir una reevaluación completa. Esta pausa debe ser pública, controlada y contar con la participación de todos los actores clave involucrados en el entrenamiento. De ser necesario, los gobiernos deberían imponer una moratoria temporal. Esto no implica una detención total del desarrollo de la IA, sino simplemente una pausa en la peligrosa carrera hacia otros modelos de desarrollo, que hagan que los sistemas de IA sean más precisos, seguros, comprensibles, transparentes, consistentes, confiables y leales. Esta es una solución integral que Elon Musk y sus colegas solicitan en su carta abierta, pero no es muy viable. Es muy difícil que todos los laboratorios independientes cumplan con un llamado tan no vinculante y transnacional.
Fortalecer la cooperación y el intercambio de información entre países y organizaciones independientes de investigación en IA para garantizar que la IA se desarrolle y utilice de forma segura en el futuro. La cooperación y el intercambio de información también son medidas para advertir y prevenir con prontitud cualquier riesgo que pueda surgir en el futuro.
En general, la IA ha estado presente en todas partes, y historias como la de la inteligencia artificial escribiendo poesía, música y artículos se han vuelto realidad y han dejado de ser ficción. El propio autor de este artículo ha utilizado tecnología de inteligencia artificial en computadoras y teléfonos para facilitar su proceso de escritura, haciendo que su proceso de escritura sea más cómodo y rápido. En concreto, el capítulo de este artículo y algunas ideas son sugeridos por la IA, y más concretamente, todas las fotos utilizadas en este artículo son creadas por IA. La tecnología de inteligencia artificial es muy útil para mejorar la calidad de vida y el trabajo humanos, pero debe controlarse estrictamente para evitar que se descontrole y se convierta en un riesgo de reemplazar a los humanos en el futuro, como predijo el físico teórico Stephen Hawking.
Artículo y fotos: HUU DUONG[anuncio_2]
Fuente
Kommentar (0)