Microsoft Undersöker Om Grupp Kopplad till DeepSeek Olagligt Skaffat OpenAI-Data

Redmond, Washington, USA

Microsoft och OpenAI undersöker om data från OpenAI:s teknik skaffats på olagligt sätt av en grupp kopplad till den kinesiska AI-startupen DeepSeek. Enligt källor med insyn i ärendet, observerade Microsofts säkerhetsforskare i hösten individer som de tror kan vara kopplade till DeepSeek, som exfiltrerade stora mängder data med hjälp av OpenAI:s API (Application Programming Interface).

Programvaruutvecklare kan betala för en licens att använda API:et för att integrera OpenAI:s patenterade AI-modeller i sina egna applikationer. Microsoft, som är OpenAI:s största investerare och teknikpartner, underrättade OpenAI om aktiviteten. Sådan aktivitet kan strida mot OpenAI:s användarvillkor eller indikera att gruppen agerade för att ta bort OpenAI:s begränsningar för hur mycket data de kunde skaffa.

DeepSeek släppte tidigare i månaden en ny öppen källkods-AI-modell kallad R1, som kan imitera hur människor resonerar. Detta har skakat om en marknad dominerad av OpenAI och amerikanska konkurrenter som Google och Meta Platforms Inc. DeepSeek påstår att R1 matchar eller överträffar ledande amerikanska utvecklares produkter på en rad industribenchmarks, inklusive för matematiska uppgifter och allmän kunskap, och byggdes för en bråkdel av kostnaden. Det potentiella hotet mot de amerikanska företagens försprång i branschen gjorde att AI-relaterade teknikaktier, inklusive Microsoft, Nvidia Corp., Oracle Corp. och Google-moderbolaget Alphabet Inc., tappade nästan 1 biljon dollar i marknadsvärde.

OpenAI svarade inte på en kommentarsförfrågan, och Microsoft avstod från att kommentera. DeepSeek och hedgefonden High-Flyer, där DeepSeek startades, svarade inte omedelbart på kommentarsförfrågningar via e-post.

David Sacks, Donald Trumps AI-tsar, sa på tisdag att det finns ”betydande bevis” för att DeepSeek använde utdata från OpenAI:s modeller för att utveckla sin egen teknik. I en intervju med Fox News beskrev Sacks en teknik kallad distillation, där en AI-modell använder utdata från en annan för träningsändamål för att utveckla liknande kapaciteter.

”Det finns betydande bevis för att DeepSeek distillerade kunskap från OpenAI:s modeller, och jag tror inte att OpenAI är särskilt glada över detta,” sa Sacks utan att gå in i detaljerna om bevisen.

I ett uttalande som svar på Sacks kommentarer, adresserade OpenAI inte direkt hans kommentarer om DeepSeek. ”Vi vet att företag baserade i Folkrepubliken Kina – och andra – konstant försöker distillera modeller från ledande amerikanska AI-företag,” sa en OpenAI-talesperson i uttalandet. ”Som ledande byggare av AI, engagerar vi oss i motåtgärder för att skydda vår immateriella egendom, inklusive en noggrann process för vilka gränsöverskridande förmågor som ska inkluderas i släppta modeller, och tror att det är avgörande viktigt att vi arbetar nära med den amerikanska regeringen för att på bästa sätt skydda de mest kapabla modellerna från försök av motståndare och konkurrenter att ta amerikansk teknik.”

Källa: Bloomberg

Taggar: #Microsoft #OpenAI #DeepSeek #AI #Dataskydd #Teknik #Cybersäkerhet

Det här inlägget postades i Artificiell intelligens, Tech, Teknik. Bokmärk permalänken.