Den snabba utvecklingen av artificiell intelligens (AI) har väckt oro för att den utvecklas snabbare än människor kan förstå dess inverkan.
Foto: ST
Användningen av generell AI har ökat avsevärt efter framväxten av verktyg som ChatGPT. Även om dessa verktyg har många fördelar kan de också missbrukas på skadliga sätt.
För att hantera denna risk har USA och flera andra länder säkrat avtal med sju företag, inklusive Amazon, Anthropic, Google, Inflection, Meta, Microsoft och OpenAI, för att åta sig att tillämpa säkra metoder vid utveckling av AI-teknik.
Vita husets tillkännagivande kommer med sin egen terminologi som kan vara obekant för den genomsnittliga personen, med termer som "red teaming" och "watermarking". Här är sju AI-relaterade termer att se upp för.
Maskininlärning
Denna gren av AI syftar till att träna maskiner att utföra en specifik uppgift korrekt genom att identifiera mönster. Maskinen kan sedan göra förutsägelser baserat på den informationen.
Djupinlärning
Kreativa AI-uppgifter förlitar sig ofta på djupinlärning, en metod som innebär att datorer tränas med hjälp av neurala nätverk, en uppsättning algoritmer utformade för att efterlikna neuronerna i den mänskliga hjärnan, för att skapa komplexa kopplingar mellan mönster för att generera text, bilder eller annat innehåll.
Eftersom djupinlärningsmodeller har flera lager av neuroner kan de lära sig mer komplexa mönster än traditionell maskininlärning.
Stor språkmodell
En stor språkmodell, eller LLM, tränas på enorma mängder data och syftar till att modellera språk eller förutsäga nästa ord i en sekvens. Stora språkmodeller, som ChatGPT och Google Bard, kan användas för uppgifter som sammanfattningar, översättningar och konversationer.
Algoritm
En uppsättning instruktioner eller regler som gör det möjligt för maskiner att göra förutsägelser, lösa problem eller slutföra uppgifter. Algoritmer kan ge shoppingrekommendationer och hjälpa till med bedrägeriupptäckt och chattfunktioner för kundtjänst.
Partiskhet
Eftersom AI tränas med hjälp av stora datamängder kan den införliva skadlig information i datan, såsom hatpropaganda. Rasism och sexism kan också förekomma i de datamängder som används för att träna AI, vilket leder till vilseledande innehåll.
AI-företag har kommit överens om att fördjupa sig i hur man kan undvika skadlig partiskhet och diskriminering i AI-system.
Röd laguppställning
Ett av de åtaganden som företag har gjort gentemot Vita huset är att genomföra ”red teaming” internt och externt på AI-modeller och system.
”Red teaming” innebär att testa en modell för att upptäcka potentiella sårbarheter. Termen kommer från en militär praxis där ett team simulerar en angripares handlingar för att komma fram till strategier.
Den här metoden används ofta för att testa säkerhetsproblem i system som molntjänstplattformar från företag som Microsoft och Google.
Vattenstämpel
En vattenstämpel är ett sätt att avgöra om ett ljud eller en bild skapades av AI. Fakta som kontrolleras för verifiering kan inkludera information om vem som skapade det, samt hur och när det skapades eller redigerades.
Till exempel har Microsoft lovat att vattenmärka bilder som skapats med deras AI-verktyg. Företag har också lovat Vita huset att vattenmärka bilder eller registrera deras ursprung för att identifiera dem som AI-genererade.
Vattenstämplar används också ofta för att spåra intrång i immateriella rättigheter. Vattenstämplar för AI-genererade bilder kan visas som omärkbart brus, till exempel en liten förändring var sjunde pixel.
Att vattenmärka AI-genererad text kan dock vara mer komplext och kan innebära att man justerar ordmallen så att den kan identifieras som AI-genererat innehåll.
Hoang Ton (enligt Poynter)
[annons_2]
Källa










Kommentar (0)