| Illustrationsfoto. (Källa: Ministeriet för vetenskap och teknik ) |
Ministeriet för vetenskap och teknik har utfärdat riktlinjer för ett antal allmänna principer för tjänstemän, offentliganställda och arbetstagare i statliga myndigheter som använder stora språkmodeller (AI-chattrobotar) i arbetet, i syfte att uppfylla de praktiska kraven vid tillämpningen av artificiell intelligens (AI) inom statliga myndigheter.
Vägledningsdokumentet syftar till att ge allmänna, lättförståeliga principer för tjänstemän, offentliganställda och anställda inom statliga myndigheter för att använda stora språkmodeller (AI-chattrobotar) för att stödja sitt arbete effektivt och säkert.
Myndigheter och enheter som behöver använda AI-chattrobotar i sitt arbete uppmuntras att proaktivt lära sig och använda detta dokument för att implementera och sprida det i sina organisationer på ett sätt som är lämpligt för verkligheten. Dokumentet bidrar till att säkerställa att AI-tillämpningar är säkra och ger praktiska fördelar.
Generaldirektör Mai Xuan Thanh, vice ordförande för Hanois folkkommitté Ha Minh Hai och biträdande generaldirektör Vu Manh Cuong, ordförande för Vietnams skatterådgivningsförening Nguyen Thi Cuc, biträdande direktör för Hanois skatteavdelning Phan Tien Hoa genomförde knapptryckningsceremonin för att lansera applikationen "Virtuell assistent för att stödja skattebetalare".
Vetenskaps- och teknikministeriet uppgav att principen för att tillhandahålla data och använda AI-chattrobotar är: Dela inte data eller dokument som finns på listan över statshemligheter, såväl som känslig information såsom personlig information, interna dokument eller data som kan påverka säkerheten eller organisationen. Säkerställ att data eller information som lämnas till AI-chattrobotar inte strider mot Vietnams historiska, kulturella, etiska, geografiska, politiska, territoriella suveränitet eller sedvänjor. Samtidigt får inte innehåll användas som bryter mot upphovsrätt, immateriella rättigheter eller andra relaterade rättigheter.
När du använder AI-chattrobotar, undvik att skapa konton med namn eller lösenord som är identiska med officiella konton (kontors-e-postkonton, interna system etc.) för att säkerställa informationssäkerhet. Använd AI-chattrobotar noggrant, effektivt och ansvarsfullt. Samtidigt, kontrollera och utvärdera noggrant resultaten från AI-chattrobotar innan du använder dem. Se till att informationen är korrekt, relevant för arbetssammanhanget och inte orsakar missförstånd eller fel vid tillämpning. Förlita dig inte helt på AI-chattrobotar; kombinera dem med personlig kunskap och erfarenhet för att fatta beslut.
För myndigheter och enheter är det nödvändigt att sprida, sprida och vägleda kadrer, tjänstemän, offentliganställda och arbetstagare att använda AI-chattrobotar i enlighet med myndighetens eller enhetens funktioner, uppgifter, befogenheter och egenskaper. Särskilt fokus ligger på att säkerställa nätverkssäkerhet.
Ansvaret för att använda AI-chattrobotar ligger hos chefen för myndigheten eller organisationen. De ansvarar för att hantera och säkra kontot med hjälp av AI-chattrobotar. Om myndighetens eller enhetens konto förlorar kontrollen eller manipuleras måste myndigheten eller enheten meddela den enhet som använder AI-chattroboten för snabb hantering.
Hantering och åtkomstbehörighet i AI-chattrobotar måste överensstämma med funktioner, uppgifter och befogenheter för deltagarna som använder AI-chattrobotar.
När en tjänsteman, statstjänsteman eller offentliganställd har sagt upp sig eller övergått till en annan tjänst, måste myndigheten eller enheten återkalla säkerhetsnyckeln (om sådan finns) eller avsluta AI-chatbotens användarkonto för att säkerställa säkerhet och strikt hantering.
Skapa gradvis din egen kunskapsdatabas, från vilken du kan skapa specialiserade chattrobotar som kan betjäna din myndighets eller enhets aktiviteter.
Regelbundet övervaka och snabbt ta itu med situationen kring användningen av AI-chattrobotar av kadrer, tjänstemän, offentliganställda och arbetstagare under ledning. Enheten som implementerar AI-chattrobotar ansvarar för att tillhandahålla detaljerade instruktioner och regelbundet tekniskt stöd för att säkerställa att användningsprocessen är smidig och säker.
För kadrer, tjänstemän, offentliganställda och arbetstagare är det nödvändigt att själva hantera och ta ansvar för att skydda personuppgifter som deklareras på myndigheters och enheters plattformar och informationssystem; att inte lämna ut inloggningskonton eller göra obehöriga kopplingar till myndigheters och enheters plattformar och informationssystem till AI-chattrobotar.
När du utnyttjar och använder chattrobotar i allmänhet och AI-chattrobotar i synnerhet vid offentliga internetåtkomstpunkter, aktivera absolut inte lösenordslagringsläge under användning. Lämna inte ut personuppgifter, identitetsinformation och annan känslig information om dig själv eller andra till AI-chattrobotar. Använd inte chattrobotar i allmänhet och AI-chattrobotar i synnerhet för olagliga ändamål, kränkningar av allmän moral eller handlingar som hacking, skapande av djupförfalskningar eller bedrägerier.
Om det under implementeringsprocessen uppstår några svårigheter, problem eller större problem som upptäcks vid användning av AI-chattrobotar, måste myndigheter och enheter kontakta den nationella myndigheten för digital transformation, ministeriet för vetenskap och teknik, för stöd.
Det är känt att ministeriet för vetenskap och teknik bygger ett nationellt AI-transformationsprogram för att tillämpa AI inom alla områden; det vill säga bygga en gemensam AI-datorinfrastruktur.
Det nationella AI-transformationsprogrammet måste visa upp andan av "alla människor" och "helhet". Sikta på att varje medborgare och tjänsteman ska ha en virtuell assistent.
Följaktligen är deadline för att lämna in det nationella AI-transformationsprogrammet till premiärministern maj 2025 och senast i november 2025 måste det finnas en virtuell assistent för människor.
Enligt nhandan.vn
Källa: https://baoapbac.vn/xa-hoi/202504/huong-dan-su-dung-chatbot-ai-ho-tro-can-bo-cong-chuc-trong-cong-viec-1038813/






Kommentar (0)