La Comisión Australiana de Seguridad Electrónica afirmó que el informe de Google proporcionó la primera visión mundial sobre cómo los usuarios pueden explotar la tecnología para crear contenido dañino e ilegal.
Julie Inman Grant, comisionada de seguridad electrónica, dijo que esto resalta la importancia de que las empresas que desarrollan productos de inteligencia artificial construyan y prueben la efectividad de las medidas de seguridad para prevenir la producción de este tipo de contenido falso y dañino.
Google utilizó el sistema de emparejamiento (un sistema automatizado que relaciona las imágenes recién subidas con imágenes conocidas) para identificar y eliminar el contenido de abuso infantil creado por Gemini. Sin embargo, la Comisión Australiana de Seguridad Electrónica (ESafety Commission) afirmó que Google no utilizó el mismo sistema para eliminar el contenido terrorista o extremista violento creado por Gemini.
Según la legislación australiana vigente, las empresas tecnológicas deben proporcionar periódicamente a la Comisión de Seguridad Electrónica información sobre sus esfuerzos para reducir los daños o enfrentarse a sanciones.
Más recientemente, las empresas deben reportar información a la comisión entre abril de 2023 y febrero de 2024. La Comisión Australiana de Seguridad Electrónica ha multado a Telegram y Twitter (posteriormente rebautizada como X) por deficiencias en sus informes.
X ya perdió la apelación contra la multa de 610.500 dólares australianos (382.000 dólares estadounidenses), pero la red social planea apelar de nuevo. Telegram también planea apelar la multa contra el canal.
Desde que el popular chatbot ChatGPT de OpenAI (EE. UU.) saltó a la fama pública a fines de 2022, los reguladores de todo el mundo han pedido medidas más efectivas para garantizar que los malos actores no abusen de la IA para incitar al terrorismo, cometer fraude, crear pornografía falsa y otros comportamientos abusivos.
Fuente: https://nhandan.vn/google-phan-mem-ai-gemini-bi-lam-dung-de-tao-noi-dung-khung-bo-gia-mao-post863325.html
Kommentar (0)