Ticker
Chinesische KI-Unternehmen senken Kosten trotz US-Chip-Beschränkungen


Chinesische KI-Firmen reduzieren ihre Kosten drastisch und schaffen damit konkurrenzfähige Modelle, obwohl sie mit US-Beschränkungen beim Zugang zu Hochleistungs-Chips und geringeren Budgets als ihre westlichen Konkurrenten konfrontiert sind. Start-ups wie 01.ai und DeepSeek setzen auf kleinere Datensätze und kostengünstige, aber qualifizierte Ingenieure, um die Preise zu senken.
Größere Technologiekonzerne wie Alibaba, Baidu und ByteDance liefern sich einen Preiskampf und haben die „Inference“-Kosten—also die Kosten für die Anwendung von Large Language Models (LLMs) zur Generierung von Antworten—um über 90 Prozent reduziert. Diese liegen nun deutlich unter denen der US-Wettbewerber.
01.ai, unter der Leitung von Lee Kai-Fu, dem ehemaligen Chef von Google China, hat die Inference-Kosten gesenkt, indem es Modelle auf kleineren Datenmengen trainiert und die Hardware optimiert. „Chinas Stärke liegt darin, wirklich erschwingliche Inference-Engines zu entwickeln und so die Verbreitung von Anwendungen zu fördern“, erklärt Lee.
Das Modell Yi-Lightning von 01.ai erreichte diese Woche den dritten Platz unter den LLM-Unternehmen, gleichauf mit Grok-2 von x.AI, aber hinter OpenAI und Google, wie aus einem Ranking der UC Berkeley SkyLab und LMSYS hervorgeht. Die Evaluierungen basieren auf Nutzerbewertungen der Modellantworten.
Die Inference-Kosten von Yi-Lightning betragen 14 Cent pro Million Tokens, verglichen mit 26 Cent für OpenAIs kleineres Modell GPT o1-mini und 4,40 US-Dollar für GPT-4o. Lee betont, dass die Pre-Training-Kosten von Yi-Lightning bei nur 3 Millionen US-Dollar liegen—ein Bruchteil dessen, was OpenAI für seine großen Modelle angibt. „Unser Ziel ist es nicht, das beste Modell zu haben, sondern ein wettbewerbsfähiges, das fünf- bis zehnmal günstiger für Entwickler ist“, sagt er.
Viele chinesische KI-Unternehmen, darunter auch 01.ai, DeepSeek, MiniMax und Stepfun, verfolgen den „Model-of-Expert“-Ansatz. Statt ein einziges „dichtes“ Modell auf einer riesigen Datenbank zu trainieren, kombinieren sie mehrere neuronale Netze, die auf branchenspezifischen Daten trainiert sind. Dieser Ansatz ermöglicht es, mit weniger Rechenleistung ein ähnliches Intelligenzniveau zu erreichen, birgt jedoch das Risiko von Ausfällen, da die Koordination zwischen den verschiedenen „Experten“ komplex ist.
Angesichts der Schwierigkeiten, einen stabilen und ausreichenden Zugang zu High-End-KI-Chips zu gewährleisten, konkurrieren chinesische KI-Unternehmen darum, die qualitativ hochwertigsten Datensätze zu entwickeln. Lee berichtet, dass 01.ai über traditionelle Methoden wie das Durchsuchen des Internets hinausgeht und beispielsweise Bücher scannt oder Artikel aus der Messaging-App WeChat sammelt, die im offenen Web nicht zugänglich sind.
„Es gibt eine Menge mühseliger Arbeit beim Labeln und Ranking von Daten“, so Lee. „Aber China ist mit seinem großen Pool an günstigen Ingenieurtalenten besser dafür gerüstet als die USA.“ Er fügt hinzu: „Chinas Stärke liegt nicht darin, bahnbrechende Forschung ohne Budgetbeschränkungen zu betreiben. Chinas Stärke ist es, gut, schnell, zuverlässig und günstig zu bauen.“

Bei Nachrichten von Eulerpool handelt es sich um extern erstellte Tickermeldungen. Ihre Einbettung erfolgt automatisch. Sie werden von uns nicht überprüft oder bearbeitet.
