OpenAI anklager DeepSeek
Har DeepSeek taget lidt for meget fra OpenAI’s egne sprogmodeller? Det mener OpenAI i hvert fald.
Det kinesiske AI-selskab DeepSeek har vendt op og ned på hele AI-industrien i den seneste tid.
Nyheden om, at DeepSeek overgik ChatGPT på App Store-toplisten i USA, gik verden rundt, og ned gik det bagefter for Nvidia.
Om mandagen var Nvidias aktier faldet med 17 procent, hvilket resulterede i et tab på over 500 milliarder dollars. Grunden til, at det ramte Nvidia så hårdt, skyldes, at det er deres hardware, som bliver brugt af OpenAI til ChatGPT.
Det slog især hårdt, da DeepSeek påstod, at det er lykkedes dem at udvikle en sprogmodel, som er lige så god som ChatGPT-4, men til under 6 millioner dollars – hvilket er en brøkdel af, hvad OpenAI selv bruger.
Nu er OpenAI så ude med riven efter netop DeepSeek og hævder, at DeepSeek har brugt OpenAI’s sprogmodeller til at træne DeepSeeks egne modeller. Det skriver Macrumors blandt andet.
Metoden hedder ‘distillation’ og går ud på, at man bruger outputs fra en større AI-model til at træne mindre AI-modeller.
Og det er altså her, OpenAI mener, at DeepSeek er gået over stregen, når de angiveligt har brugt metoden til at skabe en konkurrerende model.
Hvis dette er sandt, forklarer det i hvert fald, hvordan det lykkedes DeepSeek at opbygge en model for så få penge, når man ser på, hvad andre virksomheder bruger.
LÆS MERE: Kinesiske DeepSeek overhaler ChatGPT
Mere til historien
Herhjemme ligger DeepSeek også på en førsteplads over gratis apps på App Store, med ChatGPT på andenpladsen.