Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Riesgos de seguridad al utilizar ChatGPT

Báo Thanh niênBáo Thanh niên16/04/2023

[anuncio_1]

El banco más grande de Estados Unidos, JPMorgan Chase, Amazon y la empresa de tecnología Accenture han restringido el uso de ChatGPT a sus empleados debido a preocupaciones sobre la seguridad de los datos.

Según CNN, las preocupaciones de estas empresas están bien fundadas. El 20 de marzo, el chatbot de OpenAI tuvo un error que expuso los datos de los usuarios. Aunque el error se solucionó rápidamente, la compañía reveló que el incidente afectó al 1,2 % de los usuarios de ChatGPT Plus. La información filtrada incluía nombres completos, direcciones de correo electrónico, direcciones de facturación, los últimos cuatro dígitos de los números de tarjetas de crédito y sus fechas de vencimiento.

El 31 de marzo, la autoridad de protección de datos de Italia (Garante) emitió una prohibición temporal de ChatGPT citando preocupaciones sobre la privacidad después de que OpenAI revelara la vulnerabilidad.

Mark McCreary, copresidente de seguridad y privacidad de datos del bufete Fox Rothschild LLP, declaró a CNN que las preocupaciones de seguridad en torno a ChatGPT no son exageradas. Comparó el chatbot de IA con una "caja negra".

ChatGPT fue lanzado por OpenAI en noviembre de 2022 y rápidamente captó la atención por su capacidad para escribir ensayos, historias y letras de canciones mediante indicaciones. Gigantes tecnológicos como Google y Microsoft también han lanzado herramientas de IA similares, basadas en grandes modelos lingüísticos entrenados en vastos repositorios de datos en línea.

chatgpt.jpg

Tras la decisión de Italia, Alemania también está considerando prohibir ChatGPT

Cuando los usuarios introducen información en estas herramientas, desconocen cómo se utilizará, añadió McCreay. Esto preocupa a las empresas, ya que cada vez más empleados utilizan herramientas para redactar correos electrónicos de trabajo o tomar notas para reuniones, lo que aumenta el riesgo de exponer secretos comerciales.

Steve Mills, director de ética de IA en Boston Consulting Group (BCG), afirmó que a las empresas les preocupa que los empleados revelen información confidencial accidentalmente. Si los datos que ingresan las personas se utilizan para entrenar esta herramienta de IA, pierden el control de los datos y los transfieren a otra persona.

Según la política de privacidad de OpenAI, la empresa puede recopilar toda la información y los datos personales de los usuarios del servicio para mejorar los modelos de IA. Pueden utilizar esta información para mejorar o analizar sus servicios, realizar investigaciones, comunicarse con los usuarios y desarrollar nuevos programas y servicios.

La política de privacidad establece que OpenAI puede proporcionar información personal a terceros sin notificar a los usuarios, salvo que la ley lo exija. OpenAI también cuenta con sus propios Términos de Servicio, pero la empresa atribuye gran parte de la responsabilidad a los usuarios, quienes deben tomar las medidas adecuadas al interactuar con herramientas de IA.

Los propietarios de ChatGPT han publicado en su blog sobre su enfoque hacia una IA segura. La empresa enfatiza que no utiliza datos para vender servicios, publicitar ni crear perfiles de usuarios, sino que OpenAI utiliza los datos para que sus modelos sean más útiles. Por ejemplo, las conversaciones de los usuarios se utilizarán para entrenar a ChatGPT.

06DRHXAVI9Fvj02541vbBqy-1.webp

La política de privacidad de ChatGPT se considera bastante vaga.

Google, la empresa creadora de Bard AI, ofrece medidas de privacidad adicionales para sus usuarios de IA. Seleccionará una pequeña parte de la conversación y utilizará herramientas automatizadas para eliminar información personal identificable, lo que mejorará Bard y protegerá la privacidad del usuario.

Las conversaciones de muestra serán revisadas por capacitadores humanos y almacenadas hasta por tres años, separadas de la cuenta de Google del usuario. Google también recuerda a los usuarios que no incluyan información personal sobre sí mismos ni sobre otros en las conversaciones de Bard AI. El gigante tecnológico enfatiza que estas conversaciones no se utilizarán con fines publicitarios y anunciará cambios en el futuro.

Bard AI permite a los usuarios optar por no guardar conversaciones en sus cuentas de Google, así como revisarlas o eliminarlas mediante un enlace. Además, la empresa cuenta con medidas de seguridad diseñadas para evitar que Bard incluya información personal en las respuestas.

Steve Mills afirma que, a veces, los usuarios y desarrolladores descubren los riesgos de seguridad que esconden las nuevas tecnologías cuando ya es demasiado tarde. Por ejemplo, las funciones de autocompletado pueden revelar accidentalmente los números de la seguridad social de los usuarios.

Los usuarios no deberían poner en estas herramientas nada que no quieran compartir con otros, afirmó Mills.


[anuncio_2]
Enlace de origen

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Resumen del entrenamiento A80: La fuerza de Vietnam brilla bajo la noche de la capital milenaria
Caos en el tráfico en Hanoi tras fuertes lluvias, conductores abandonan sus coches en carreteras inundadas
Momentos impresionantes de la formación de vuelo en servicio en la Gran Ceremonia del A80
Más de 30 aviones militares actúan por primera vez en la plaza Ba Dinh

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto