La inteligencia artificial (IA) es la fuente del conocimiento humano. Esto es algo que nadie puede negar. Y ChatGPT es la herramienta de IA con el mayor número de usuarios en el mundo, estimado en más de 450 millones de personas en la actualidad. ChatGPT posee un sistema de texto compuesto por 8 millones de documentos y más de 10 mil millones de palabras, por lo que puede satisfacer casi todos los requisitos humanos en muchos campos que no se comprenden o no se comprenden profundamente; simular conversaciones humanas, incluso escribir poesía y analizar datos...
Debido a la inteligencia de esta herramienta, muchas personas se vuelven dependientes, llegando a situaciones que están dentro de su comprensión o sentimientos personales pero confían en ChatGPT para encontrar respuestas. Se está “abusando” de la IA, especialmente en áreas que requieren diferencias humanas.
Por ejemplo, una felicitación o una disculpa depende enteramente de la actitud y los sentimientos de quien la envía. Sin embargo, muchas personas utilizan la IA en lugar de decir lo que quieren decir. El ejemplo anterior lo comparte un profesor de literatura. El 20 de noviembre del año pasado, esta profesora recibió los deseos de muchos estudiantes.
Para un maestro, no hay nada más cálido que cuando generaciones de estudiantes siempre lo recuerdan y le dan muchos buenos deseos en el Día del Maestro. Sin embargo, este profesor era muy reflexivo porque muchos de ellos eran deseos vacíos, estereotipados, que, mirándolos, no era difícil saber que la persona que los deseaba tomaba sugerencias de ChatGPT.
Según este profesor, muchos estudiantes no solo copian saludos, sino que también confían en esta herramienta inteligente para escribir ensayos. Sin embargo, si esta dependencia se muestra en la escritura, el profesor puede recordar, incluso dar una mala calificación dependiendo del nivel de copia, pero con acciones que expresan emociones, el profesor solo puede sentirse triste y no saber qué más hacer.
O recientemente, las redes sociales han estado difundiendo disculpas (supuestamente de un estudiante que se comportó de manera inapropiada con los veteranos durante el desfile del 30 de abril en Ciudad Ho Chi Minh). Las disculpas fueron muy amables, mostrando el remordimiento de este estudiante. Sin embargo, los internautas creen que esas frases de ChatGPT fueron "tomadas prestadas" por este estudiante.
La verdad de la historia es desconocida, pero situaciones similares a la descrita no son raras, sobre todo desde que la inteligencia artificial se ha apoderado de la vida. Tanto las felicitaciones como las disculpas muestran los sentimientos y el respeto de la persona a la que se felicita o se pide disculpas, algo que las máquinas no pueden reemplazar de ninguna manera. Por eso es preocupante que algunas personas estén tomando prestadas emociones de la IA. En ese momento, por muy suaves que sean los deseos o las disculpas, aún carecen de sinceridad y son difíciles de aceptar para los demás.
¿Y qué pasa en el trabajo? La IA es muy necesaria cuando se trata de darnos algunas sugerencias de referencia. Pero no todo el contenido lo conoce la IA o da respuestas específicas. Un joven reportero compartió que el consejo editorial le asignó entrevistar al líder de una unidad líder relacionada con el campo que estaba a cargo. La pregunta fue enviada y la respuesta fue devuelta a tiempo, lo que hizo muy feliz al periodista. Sin embargo, al leer el contenido del interior, no fue difícil para este reportero descubrir que todas las respuestas fueron respondidas por ChatGPT.
Todo el contenido es general y general (que refleja la misma situación en cada localidad), mientras que el requisito es tener resultados específicos a través de los últimos datos de la industria, para luego proponer soluciones adecuadas a la situación real de la localidad.
Por lo tanto, los periodistas deben registrarse para poder trabajar directamente en la explotación de la información que necesitan. Como es bastante competente en inteligencia artificial, el periodista dijo que al buscar palabras clave no tan populares, ChatGPT casi nunca da las sugerencias deseadas. Incluso en el caso de información sobre leyes e historia, ChatGPT a veces proporciona información incompleta e incorrecta.
Volviendo a la historia de la dependencia de los jóvenes a la información debido a la IA, el Fondo de las Naciones Unidas para la Infancia (UNICEF) ha advertido sobre este riesgo. “Necesitamos hacer más para preparar a nuestros ciudadanos jóvenes y conocedores de la tecnología para que resistan la manipulación y mantengan la confianza en fuentes de conocimiento confiables y verificables”, dijo la Directora Ejecutiva de UNICEF, Henrietta Fore.
Obviamente, este es un riesgo preocupante no sólo para la juventud vietnamita sino para todo el mundo y se necesitan soluciones eficaces para abordar esta dependencia. Porque los jóvenes son el principal objetivo de recibir IA y, al mismo tiempo, son los que se enfrentan a mayores riesgos a causa de la IA. Es peligroso que este grupo dependa cada vez más de la IA para recibir información, especialmente información sobre historia, política y la base ideológica del Partido.
Hay que afirmar que el uso de IA es muy necesario. Si sabes cómo utilizarlo y convertirlo en una herramienta de apoyo, ahorrarás mucho tiempo para invertir en creatividad. Sin embargo, si somos demasiado dependientes, no sólo los estudiantes sino todos podemos perder muchas habilidades como el pensamiento crítico y la creatividad.
Para los estudiantes, confiar en Chat GPT en particular y en herramientas de inteligencia artificial en general les generará el hábito de ser perezosos para pensar. Este hábito provoca gradualmente una pérdida de la capacidad de pensar, incluso de la confianza en uno mismo al pensar que la respuesta sólo puede estar en la IA. Por lo tanto, los profesores necesitan orientar a los estudiantes desde la secundaria.
Para ello, este equipo debe tener acceso a la tecnología para distinguir si el problema planteado por los estudiantes fue creado por la IA o por los propios estudiantes. Un experto en educación dijo que en la enseñanza, los profesores deben crear preguntas que requieran que los estudiantes argumenten sobre lo que está bien o lo que está mal, algo que la IA no puede hacer. O los problemas de pensamiento lógico requieren que los estudiantes piensen, porque la IA sólo puede responder preguntas de verdadero o falso.
Anh Thu
Fuente: https://baoquangtri.vn/ung-dung-tri-tue-nhan-tao-khong-xa-lanh-nhung-dung-le-thuoc-193540.htm
Kommentar (0)