
최근 문서의 편향 및 위조와 관련된 사건으로 인해 학자들은 연구에 AI를 도입하는 적절한 수준을 재고하게 되었습니다.
최근 언어학 박사 응우옌 반 히엡 교수는 자신의 개인 페이지에 독자들을 충격에 빠뜨린 사연을 공유했습니다. 그는 친구가 보낸 정보를 AI가 자신의 문서를 위조했다는 사실을 알게 되었습니다. 또한, 이학 박사 부교수 쩐 반 꼬의 논문 또한 AI에 의해 위조되었다는 사실을 우연히 발견했습니다.
AI는 인간 삶에 없어서는 안 될 부분이 되었지만, 전문가들은 AI를 보조 도구로만 여겨야 한다고 강조합니다. AI 사용자는 데이터를 처리하고 AI와 "협력"하여 얻은 결과를 평가할 수 있도록 항상 경계하고 관련 지식을 갖춰야 합니다. 특히 과학 연구에서는 데이터와 모델의 편향이 가장 큰 문제라는 연구 결과가 많이 있습니다. AI는 편향될 수 있으며, 분석 결과를 왜곡하고, 편견이나 차별을 조장하며, 제대로 통제하지 않으면 정보를 조작할 수 있습니다.
특히 사회과학 연구에서 AI를 활용하는 데는 훨씬 더 많은 주의가 필요합니다. 철학, 언어학, 민족학, 역사학 등 사회과학 분야는 모두 인간의 행동, 문화, 그리고 행위를 연구 대상으로 삼기 때문에, 데이터는 베트남 사회문화적 맥락과 깊이 있고 구체적인 맥락을 공유하는 경우가 많습니다. AI 학습 데이터가 역사적 편견을 반영할 경우, AI가 성별, 계층, 인종 또는 지역 간 불평등 문제를 심화시키는 결론을 도출할 위험이 있습니다. 특히 AI가 인간 행동을 분석하거나, 공개 설문조사에 응답하거나, 미디어 콘텐츠에 참여하는 데 활용될 경우, 이러한 위험은 더욱 커집니다.
일부 사회과학 전문가에 따르면, AI는 현재 저작권이 있거나 유료 데이터 소스에 접근하는 데 어려움을 겪고 있으며, 이로 인해 정보가 불완전하게 업데이트되고 있다고 합니다.
그럴듯한 이야기를 만들어내기 위해 문서를 조작하는 현상은 베트남어처럼 데이터 출처가 제한적인 언어에서, 덜 인기 있는 주제에서 자주 발생하므로 사용자에게 경고해야 합니다. 일반적으로 AI 시스템은 현재 사회적, 문화적 맥락을 이해하는 데 매우 제한적이기 때문에 모호하고 은유가 가득한 사회과학 지식을 해석하는 데 있어 AI의 지원은 신뢰할 만하지 않습니다.
AI는 과학 연구에 많은 잠재력을 가져다주지만, 이를 적용하는 데는 매우 신중해야 하며 한계가 있고 항상 연구자의 비판적 사고 능력과 함께 이루어져야 합니다.
AI가 과학 연구에 많은 잠재력을 가져다주지만, 그 적용은 매우 신중하고 제한적이어야 하며, 연구자의 비판적 역량이 항상 수반되어야 함을 알 수 있습니다. AI를 사용하는 주체는 AI 사용의 이러한 한계를 명확히 파악하고, AI가 과학의 핵심 가치를 훼손하지 않도록 해야 합니다. 과학 연구의 진실성을 보호하기 위해서는 과학자의 역할과 책임을 새로운 차원으로 끌어올려야 합니다. 또한, 베트남의 문화, 전통, 그리고 사회적 규범을 고려하여 법적 구속력이 있는 AI 윤리 체계를 제시할 필요가 있습니다.
과학기술부 는 안전하고 책임 있는 AI 시스템 연구 개발을 촉진하고, 부정적 영향을 제한하며, 위험을 통제하기 위한 9가지 원칙 체계를 마련했습니다. 이 원칙은 데이터 보안, 인권 및 존엄성 존중, 그리고 AI 사용자의 책임성을 강조합니다. 특히 과학 연구 분야에서는 국무교수협의회가 2023년 공식 교시 제25/HDGSNN을 발표하여 산업계 교수 위원회와 과학 저작물 품질 평가 기관이 AI 기술을 사용하거나 AI의 지원을 받는 저작물을 적발하고 평가하는 데 특별한 주의를 기울일 것을 요청했습니다. 이러한 요구 사항은 AI를 활용한 연구 결과가 과학적 기준을 충족하도록 보장하고, 과학 연구 및 출판 과정에서 AI가 남용되는 것을 방지하는 것을 목표로 합니다.
앞으로 인공지능법이 제정되어 인공지능 활용에 대한 윤리와 책임에 대한 엄격한 규정이 마련되면, 건강한 인공지능 개발 환경을 조성하고 과학자들이 연구에 참여하는 데 보다 적극적이고 책임감 있는 지원을 제공하는 데 기여할 것입니다.
출처: https://nhandan.vn/canh-giac-voi-mat-trai-cua-ai-post916545.html
댓글 (0)