Truer med å kutte KI-samarbeid
Ifølge nettstedet Axios får ikke Pentagon bruke KI-modeller fra selskapet Anthropic ubegrenset. Dermed truer departementet med å kutte samarbeidet.
KI-selskapet Anthropic lar ikke det amerikanske forsvarsdepartementet bruke KI-modeller ubegrenset.
Det skal Pentagon ha fått nok av, ifølge Axios.
Anthropic insisterer på at deres modeller ikke brukes på to områder: Masseovervåking av amerikanere og helt autonome våpen, skriver nyhetsnettstedet Axios.
Det amerikanske forsvarsdepartementet, også kalt Pentagon, legger press på fire KI-selskaper for å kunne bruke verktøyene deres til «alle lovlige formål», inkludert våpenutvikling, etterretning og i strid.
Tips oss!
Har du tips eller innspill til denne eller andre saker? Send oss en e-post på: tips@fofo.no eller ta direkte kontakt med en av journalistene.
Ettersom Anthropic insisterer på å opprettholde noen begrensninger på bruk, vurderer Pentagon å kutte samarbeidet, skriver Axios og viser til en høytstående, amerikansk tjenesteperson som ikke er navngitt.
Vanskelige forhandlinger har pågått i månedsvis uten resultater. Den anonyme amerikanske tjenestepersonen sier til Axios at det er en betydelig gråsone for hva som kan anses for å havne innenfor de to nevnte kategoriene.
Videre sier han at de ikke kan forhandle med selskapene i hvert tvilstilfelle eller risikere at en tjeneste plutselig er blokkert.
I tillegg til Anthropic som leverer KI-tjenesten Claude, gjelder forsvarssamarbeidet selskapene OpenAI (ChatGPT), Google (Gemini) og xAI (Grok).
Det amerikanske forsvarsdepartementet har foreløpig ikke kommentert saken.