I en nyligen släppt uppdatering av sina AI-principer har Googles moderbolag, Alphabet, beskrivit hur de planerar att använda AI i framtiden. Framför allt har de tagit bort ett löfte om att inte använda AI för att bygga vapen, övervakningsverktyg eller "tekniker som kan orsaka omfattande skada".
Googles röda linje för AI
Termen Googles AI-röda linje dök först upp 2018, när anställda protesterade mot Maven AI-projektet i samarbete med det amerikanska försvarsdepartementet . Vid den tiden skrev fler än 4 000 Google-anställda under en namninsamling för att avsluta projektet och kräva att företaget aldrig skulle "bygga teknologi för krig".
Google drog sedan tillbaka sitt kontrakt för att bygga AI-verktyg för Pentagon. Företaget drog också en röd linje och förklarade att "icke-förföljande tillämpningar" relaterade till AI, inklusive vapen och tekniker som samlar in eller använder information för övervakning som bryter mot internationellt accepterade normer. Tekniker som orsakar eller sannolikt kommer att orsaka allmän skada, bryter mot allmänt accepterade principer i internationell rätt och mänskliga rättigheter, inte heller kommer att vara inblandade.
Vissa Google-appar på iPhone
Beslutet att dra en röd linje mot AI med vapen har hållit Google utanför militära avtal som undertecknats av andra teknikjättar, inklusive Amazon och Microsoft.
Men inför sådana enorma förändringar i AI-kapplöpningen har Google beslutat att dra tillbaka sitt löfte. Detta har orsakat en hel del kontroverser inte bara inom Google utan visar också på ett viktigt skifte inom Silicon Valley-teknikföretagens försvarsindustri.
Google är internt splittrat
Enligt Business Insider har uppdateringen av AI-principer och etik utlöst stark motreaktion från Googles anställda. Anställda uttryckte sin frustration på interna forum. Ett meme som visar VD Sundar Pichai som frågar Googles sökmotor med frågan "hur blir man vapenleverantör?" har fått mycket uppmärksamhet.
En annan anställd skapade ett meme som frågade: ”Är vi skurkarna som hävde förbudet mot AI för vapen och övervakning?” Företaget har nu fler än 180 000 anställda. Det kan fortfarande finnas röster som stöder Googles beslut att arbeta närmare den amerikanska regeringen och dess militära och försvarskunder.
Googles resonemang
En talesperson för Google svarade inte omedelbart på en begäran om kommentarer om tillbakadragandet av "AI-löftet". Chefen för AI, Demis Hassabis, sa dock att riktlinjerna utvecklas i en föränderlig värld och att AI skulle "skydda den nationella säkerheten".
I ett blogginlägg på företaget sa Hassabis och James Manyika, Googles vice vd för teknik och samhälle, att i takt med att den globala konkurrensen om ledarskap inom AI intensifieras anser Google att AI bör vägledas av frihet, jämlikhet och respekt för mänskliga rättigheter.
”Vi tror att företag, regeringar och organisationer delar värderingar och bör arbeta tillsammans för att skapa AI som kan skydda människor, driva global tillväxt och stödja nationell säkerhet”, tillade de.
Två chefer på Google sa att miljarder människor använder AI i sina dagliga liv. Artificiell intelligens har blivit en universell teknik, en plattform som otaliga organisationer och individer använder för att bygga applikationer. AI har gått från att vara ett nischforskningsämne i labbet till en teknik lika allestädes närvarande som mobiltelefoner och internet. Så Googles "AI-ed" från 2018 behöver uppdateras i enlighet därmed.
Alphabet sa att de planerar att spendera 75 miljarder dollar nästa år, till stor del för att bygga AI-kapacitet och infrastruktur.
[annons_2]
Källa: https://thanhnien.vn/google-rut-lai-loi-hua-khong-dung-ai-cho-quan-su-185250206161804981.htm
Kommentar (0)