Til BMS, BUS, industri og instrumentkabel.

Mens forårsfestivalen nærmer sig sin afslutning, er begejstringen omkring DeepSeek fortsat stærk. Den seneste ferie fremhævede en betydelig følelse af konkurrence inden for tech-industrien, hvor mange diskuterer og analyserer denne "malle". Silicon Valley oplever en hidtil uset følelse af krise: fortalere for open source giver igen udtryk for deres meninger, og selv OpenAI revurderer, om deres closed source-strategi var det bedste valg. Det nye paradigme med lavere beregningsomkostninger har udløst en kædereaktion blandt chipgiganter som Nvidia, hvilket har ført til rekordstore markedsværditab på én dag i det amerikanske aktiemarkeds historie, mens offentlige myndigheder undersøger overholdelsen af de chips, der bruges af DeepSeek. Midt i blandede anmeldelser af DeepSeek i udlandet oplever den indenlandske virksomhed en ekstraordinær vækst. Efter lanceringen af R1-modellen har den tilhørende app oplevet en stigning i trafikken, hvilket indikerer, at væksten i applikationssektorer vil drive det samlede AI-økosystem fremad. Det positive aspekt er, at DeepSeek vil udvide applikationsmulighederne, hvilket antyder, at det ikke vil være så dyrt at stole på ChatGPT i fremtiden. Dette skift er blevet afspejlet i OpenAI's nylige aktiviteter, herunder levering af en ræsonnementsmodel kaldet o3-mini til gratis brugere som svar på DeepSeek R1, samt efterfølgende opgraderinger, der gjorde tankekæden bag o3-mini offentlig. Mange udenlandske brugere udtrykte taknemmelighed til DeepSeek for disse udviklinger, selvom denne tankekæde tjener som et resumé.
Optimistisk set er det tydeligt, at DeepSeek forener indenlandske aktører. Med fokus på at reducere træningsomkostninger slutter forskellige upstream-chipproducenter, mellemliggende cloud-udbydere og adskillige startups sig aktivt til økosystemet og forbedrer omkostningseffektiviteten ved brug af DeepSeek-modellen. Ifølge DeepSeeks artikler kræver den komplette træning af V3-modellen kun 2,788 millioner H800 GPU-timer, og træningsprocessen er yderst stabil. MoE-arkitekturen (Mixture of Experts) er afgørende for at reducere omkostningerne til præ-træning med en faktor ti sammenlignet med Llama 3 med 405 milliarder parametre. I øjeblikket er V3 den første offentligt anerkendte model, der demonstrerer så høj sparsitet i MoE. Derudover fungerer MLA (Multi Layer Attention) synergistisk, især inden for ræsonnement. "Jo sparsommere MoE, desto større er batchstørrelsen, der er nødvendig under ræsonnement for fuldt ud at udnytte beregningskraften, hvor størrelsen af KVCache er den vigtigste begrænsende faktor; MLA reducerer KVCache-størrelsen betydeligt," bemærkede en forsker fra Chuanjing Technology i en analyse for AI Technology Review. Samlet set ligger DeepSeeks succes i kombinationen af forskellige teknologier, ikke kun én enkelt. Branchefolk roser DeepSeek-teamets tekniske kompetencer og bemærker deres ekspertise inden for parallel træning og operatøroptimering, hvor de opnår banebrydende resultater ved at forfine hver eneste detalje. DeepSeeks open source-tilgang fremmer yderligere den samlede udvikling af store modeller, og det forventes, at hvis lignende modeller udvides til billeder, videoer og mere, vil dette stimulere efterspørgslen i hele branchen betydeligt.
Muligheder for tredjeparts ræsonnementstjenester
Data viser, at DeepSeek siden udgivelsen har opnået 22,15 millioner daglige aktive brugere (DAU) på bare 21 dage, hvilket udgør 41,6% af ChatGPTs brugerbase og overstiger 16,95 millioner daglige aktive brugere af Doubao. Appen er dermed blevet den hurtigst voksende applikation globalt og topper Apple App Store i 157 lande/regioner. Men mens brugerne strømmede til i hobetal, har cyberhackere ubarmhjertigt angrebet DeepSeek-appen og forårsaget betydelig belastning på dens servere. Brancheanalytikere mener, at dette delvist skyldes, at DeepSeek implementerer kort til træning, mens de mangler tilstrækkelig computerkraft til ræsonnement. En insider fra branchen har informeret AI Technology Review: "De hyppige serverproblemer kan nemt løses ved at opkræve gebyrer eller finansiere køb af flere maskiner; i sidste ende afhænger det af DeepSeeks beslutninger." Dette er en afvejning mellem at fokusere på teknologi versus produktificering. DeepSeek har i høj grad været afhængig af kvantekvantisering til selvforsørgelse og har modtaget begrænset ekstern finansiering, hvilket har resulteret i et relativt lavt pres på pengestrømmen og et renere teknologisk miljø. I lyset af de førnævnte problemer opfordrer nogle brugere DeepSeek på sociale medier til at hæve brugsgrænserne eller introducere betalte funktioner for at forbedre brugerkomforten. Derudover er udviklere begyndt at bruge den officielle API eller tredjeparts-API'er til optimering. DeepSeeks åbne platform annoncerede dog for nylig: "De nuværende serverressourcer er knappe, og API-tjenesteopfyldninger er blevet suspenderet."
Dette åbner utvivlsomt flere muligheder for tredjepartsleverandører inden for AI-infrastruktursektoren. For nylig har adskillige indenlandske og internationale cloudgiganter lanceret DeepSeeks model-API'er – de udenlandske giganter Microsoft og Amazon var blandt de første til at tilslutte sig i slutningen af januar. Den indenlandske leder, Huawei Cloud, tog det første skridt og lancerede DeepSeek R1- og V3-logotjenesterne i samarbejde med Silicon-baserede Flow den 1. februar. Rapporter fra AI Technology Review viser, at Silicon-baserede Flows tjenester har oplevet en tilstrømning af brugere, hvilket effektivt har "krakket" platformen. De tre store tech-virksomheder – BAT (Baidu, Alibaba, Tencent) og ByteDance – udstedte også billige, tidsbegrænsede tilbud fra den 3. februar, hvilket minder om sidste års priskrige mellem cloudleverandører, der blev antændt af DeepSeeks V2-modellancering, hvor DeepSeek begyndte at blive kaldt "prisslagteren". Cloud-leverandørernes hektiske handlinger afspejler de tidligere stærke bånd mellem Microsoft Azure og OpenAI, hvor Microsoft i 2019 foretog en betydelig investering på 1 milliard dollars i OpenAI og høstede fordelene efter ChatGPT's lancering i 2023. Dette tætte forhold begyndte dog at slides op, efter at Meta open source-lancerede Llama, hvilket gjorde det muligt for andre leverandører uden for Microsoft Azure-økosystemet at konkurrere med deres store modeller. I dette tilfælde har DeepSeek ikke kun overgået ChatGPT med hensyn til produktoptimering, men har også introduceret open source-modeller efter o1-lanceringen, svarende til begejstringen omkring Llamas genoplivning af GPT-3.
I virkeligheden positionerer cloud-udbydere sig også som trafikgateways for AI-applikationer, hvilket betyder, at tættere bånd med udviklere resulterer i forebyggende fordele. Rapporter viser, at Baidu Smart Cloud havde over 15.000 kunder, der brugte DeepSeek-modellen via Qianfan-platformen på modellens lanceringsdag. Derudover tilbyder flere mindre virksomheder løsninger, herunder Silicon-based Flow, Luchen Technology, Chuanjing Technology og forskellige AI Infra-udbydere, der har lanceret understøttelse af DeepSeek-modeller. AI Technology Review har erfaret, at de nuværende optimeringsmuligheder for lokaliserede implementeringer af DeepSeek primært findes på to områder: det ene er at optimere for MoE-modellens sparsity-karakteristika ved hjælp af en blandet ræsonnementstilgang til at implementere MoE-modellen med 671 milliarder parametre lokalt, samtidig med at man bruger hybrid GPU/CPU-inferens. Derudover er optimeringen af MLA afgørende. DeepSeeks to modeller står dog stadig over for nogle udfordringer i forbindelse med implementeringsoptimering. "På grund af modellens størrelse og de mange parametre er optimering virkelig kompleks, især for lokale implementeringer, hvor det vil være udfordrende at opnå en optimal balance mellem ydeevne og omkostninger," udtalte en forsker fra Chuanjing Technology. Den største hindring ligger i at overvinde begrænsninger i hukommelseskapaciteten. "Vi anvender en heterogen samarbejdstilgang for fuldt ud at udnytte CPU'er og andre beregningsressourcer, hvor vi kun placerer de ikke-delte dele af den sparsomme MoE-matrix på CPU/DRAM til behandling ved hjælp af højtydende CPU-operatorer, mens de tætte dele forbliver på GPU'en," forklarede han yderligere. Rapporter tyder på, at Chuanjings open source-framework KTransformers primært injicerer forskellige strategier og operatorer i den originale Transformers-implementering gennem en skabelon, hvilket forbedrer inferenshastigheden betydeligt ved hjælp af metoder som CUDAGraph. DeepSeek har skabt muligheder for disse startups, da vækstfordele bliver tydelige; mange virksomheder har rapporteret mærkbar kundevækst efter lanceringen af DeepSeek API'en og modtaget forespørgsler fra tidligere kunder, der søger optimeringer. Branchefolk har bemærket: "Tidligere var relativt etablerede kundegrupper ofte bundet til standardiserede tjenester fra større virksomheder, tæt bundet af deres omkostningsfordele på grund af stordriftsfordele. Men efter at have afsluttet implementeringen af DeepSeek-R1/V3 før forårsfestivalen modtog vi pludselig samarbejdsanmodninger fra flere kendte kunder, og selv tidligere inaktive kunder indledte kontakt for at introducere vores DeepSeek-tjenester." I øjeblikket ser det ud til, at DeepSeek gør modelinferensydelse stadig vigtigere, og med bredere anvendelse af store modeller vil dette fortsat påvirke udviklingen i AI-infrastrukturbranchen betydeligt. Hvis en DeepSeek-niveaumodel kunne implementeres lokalt til en lav pris, ville det i høj grad hjælpe regeringer og virksomheder med digital transformation. Der er dog fortsat udfordringer, da nogle kunder kan have høje forventninger til store modelfunktioner, hvilket gør det mere tydeligt, at det bliver afgørende at afbalancere ydeevne og omkostninger i den praktiske implementering.
For at vurdere, om DeepSeek er bedre end ChatGPT, er det vigtigt at forstå deres vigtigste forskelle, styrker og anvendelsesscenarier. Her er en omfattende sammenligning:
Funktion/aspekt | DeepSeek | ChatGPT |
---|---|---|
Ejendomsret | Udviklet af et kinesisk firma | Udviklet af OpenAI |
Kildemodel | Åben kildekode | Proprietær |
Koste | Gratis at bruge; billigere API-adgangsmuligheder | Abonnement eller betaling pr. brug-priser |
Tilpasning | Meget brugerdefinerbar, så brugerne kan justere og bygge videre på den | Begrænset tilpasning tilgængelig |
Ydeevne i specifikke opgaver | Udmærker sig inden for visse områder som dataanalyse og informationsindsamling | Alsidig med stærke præstationer i kreativ skrivning og samtaleopgaver |
Sprogstøtte | Stærkt fokus på kinesisk sprog og kultur | Bred sprogunderstøttelse, men amerikansk-centreret |
Træningsomkostninger | Lavere træningsomkostninger, optimeret for effektivitet | Højere træningsomkostninger, der kræver betydelige computerressourcer |
Variation i respons | Kan tilbyde forskellige svar, muligvis påvirket af geopolitisk kontekst | Konsistente svar baseret på træningsdata |
Målgruppe | Rettet mod udviklere og forskere, der ønsker fleksibilitet | Rettet mod almindelige brugere, der søger samtalefunktioner |
Brugsscenarier | Mere effektiv til kodegenerering og hurtige opgaver | Ideel til at generere tekst, besvare spørgsmål og deltage i dialog |
Et kritisk perspektiv på "at forstyrre Nvidia"
Udover Huawei tilpasser flere indenlandske chipproducenter som Moore Threads, Muxi, Biran Technology og Tianxu Zhixin sig i øjeblikket også til DeepSeeks to modeller. En chipproducent fortalte AI Technology Review: "DeepSeeks struktur demonstrerer innovation, men det er stadig en LLM. Vores tilpasning til DeepSeek fokuserer primært på logiske applikationer, hvilket gør den tekniske implementering ret ligetil og hurtig." MoE-tilgangen kræver dog højere krav til lagring og distribution, kombineret med at sikre kompatibilitet ved implementering med indenlandske chips, hvilket præsenterer adskillige tekniske udfordringer, der skal løses under tilpasningen. "I øjeblikket matcher den indenlandske computerkraft ikke Nvidia i brugervenlighed og stabilitet, hvilket kræver original fabriksdeltagelse til opsætning af softwaremiljø, fejlfinding og grundlæggende ydeevneoptimering," sagde en brancheekspert baseret på praktisk erfaring. Samtidig sagde: "På grund af den store parameterskala for DeepSeek R1 kræver den indenlandske computerkraft flere noder til parallelisering. Derudover er de indenlandske hardwarespecifikationer stadig noget bagud; for eksempel kan Huawei 910B i øjeblikket ikke understøtte FP8-inferensen introduceret af DeepSeek." Et af højdepunkterne ved DeepSeek V3-modellen er introduktionen af et FP8 blandet præcisionstræningsframework, som er blevet effektivt valideret på en ekstremt stor model, hvilket markerer en betydelig præstation. Tidligere har store aktører som Microsoft og Nvidia foreslået lignende arbejde, men der hersker tvivl i branchen om gennemførligheden. Det forstås, at FP8's primære fordel sammenlignet med INT8 er, at kvantisering efter træning kan opnå næsten tabsfri præcision, samtidig med at inferenshastigheden forbedres betydeligt. Sammenlignet med FP16 kan FP8 opnå op til dobbelt acceleration på Nvidias H20 og over 1,5 gange acceleration på H100. Det er værd at bemærke, at i takt med at diskussionerne omkring tendensen med indenlandsk computerkraft plus indenlandske modeller tager fart, bliver spekulationer om, hvorvidt Nvidia kunne blive forstyrret, og om CUDA-gravgraven kunne omgås, stadig mere udbredte. En ubestridelig kendsgerning er, at DeepSeek faktisk har forårsaget et betydeligt fald i Nvidias markedsværdi, men dette skift rejser spørgsmål om Nvidias integritet i high-end computerkraft. Tidligere accepterede fortællinger om kapitaldrevet beregningsakkumulering bliver udfordret, men det er fortsat vanskeligt for Nvidia at blive fuldt ud erstattet i træningsscenarier. Analyse af DeepSeeks dybe brug af CUDA viser, at fleksibilitet - såsom at bruge SM til kommunikation eller direkte manipulation af netværkskort - ikke er mulig for almindelige GPU'er at imødekomme. Branchesynspunkter understreger, at Nvidias voldgrav omfatter hele CUDA-økosystemet snarere end blot CUDA selv, og de PTX-instruktioner (Parallel Thread Execution), som DeepSeek anvender, er stadig en del af CUDA-økosystemet. "På kort sigt kan Nvidias beregningskraft ikke omgås - dette er især tydeligt i træning; det vil dog være relativt lettere at implementere indenlandske kort til ræsonnement, så fremskridtene vil sandsynligvis være hurtigere. Tilpasningen af indenlandske kort fokuserer primært på inferens; ingen har endnu formået at træne en model af DeepSeeks ydeevne på indenlandske kort i stor skala," bemærkede en brancheanalytiker til AI Technology Review. Samlet set er omstændighederne, set fra et inferenssynspunkt, opmuntrende for indenlandske store modelchips. Mulighederne for indenlandske chipproducenter inden for inferens er mere tydelige på grund af træningens alt for høje krav, hvilket hindrer adgang. Analytikere hævder, at det er tilstrækkeligt blot at udnytte indenlandske inferenskort; om nødvendigt er det muligt at anskaffe en ekstra maskine, hvorimod træningsmodeller stiller unikke udfordringer - håndtering af et øget antal maskiner kan blive byrdefuldt, og højere fejlrater kan have en negativ indflydelse på træningsresultaterne. Træning har også specifikke krav til klyngeskala, mens kravene til klynger til inferens ikke er så strenge, hvilket letter GPU-kravene. I øjeblikket overgår ydeevnen af Nvidias enkelte H20-kort ikke Huaweis eller Cambrians; dets styrke ligger i klyngedannelse. Baseret på den samlede indvirkning på markedet for computerkraft bemærkede grundlæggeren af Luchen Technology, You Yang, i et interview med AI Technology Review: "DeepSeek kan midlertidigt underminere etableringen og udlejningen af ultrastore træningsklynger til computerkraft. I det lange løb vil efterspørgslen på markedet sandsynligvis stige ved at reducere omkostningerne forbundet med træning, ræsonnement og applikationer af store modeller betydeligt. Efterfølgende iterationer af AI baseret på dette vil derfor løbende drive en vedvarende efterspørgsel på markedet for computerkraft." Derudover er "DeepSeeks øgede efterspørgsel efter ræsonnement- og finjusteringstjenester mere kompatibel med det indenlandske beregningslandskab, hvor den lokale kapacitet er relativt svag, hvilket bidrager til at mindske spild fra inaktive ressourcer efter klyngeetablering. Dette skaber levedygtige muligheder for producenter på tværs af forskellige niveauer af det indenlandske beregningsøkosystem." Luchen Technology har samarbejdet med Huawei Cloud om at lancere DeepSeek R1-serien af ræsonnement-API'er og cloud-billeddannelsestjenester baseret på indenlandsk beregningskraft. You Yang udtrykte optimisme omkring fremtiden: "DeepSeek indgyder tillid til indenlandsk producerede løsninger og fremmer større entusiasme og investering i indenlandske beregningsmuligheder fremadrettet."

Konklusion
Om DeepSeek er "bedre" end ChatGPT afhænger af brugerens specifikke behov og mål. Til opgaver, der kræver fleksibilitet, lave omkostninger og tilpasning, kan DeepSeek være bedre. Til kreativ skrivning, generelle undersøgelser og brugervenlige samtalegrænseflader kan ChatGPT tage føringen. Hvert værktøj tjener forskellige formål, så valget vil i høj grad afhænge af den kontekst, de bruges i.
Styrekabler
Struktureret kabelsystem
Netværk og data, fiberoptisk kabel, patchkabel, moduler, frontplade
16.-18. april 2024 Mellemøsten-Energi i Dubai
16.-18. april 2024 Securika i Moskva
9. maj 2024 LANCERING AF NYE PRODUKTER OG TEKNOLOGIER i Shanghai
22.-25. oktober 2024 SECURITY CHINA i Beijing
19.-20. november 2024 CONNECTED WORLD KSA
Opslagstidspunkt: 10. feb. 2025