China dominiert Open-Source-KI-Modelle; US-Startup sammelt 200 Millionen Dollar für Rache ein

Bild

Sechs der weltweit besten Open-Source-KI-Modelle wurden von chinesischen Unternehmen entwickelt, wodurch amerikanische Labore einen deutlichen Vorsprung auf diesem Gebiet haben. Das in San Francisco ansässige Unternehmen Arcee AI will dies ändern und sammelt über 200 Millionen US-Dollar an Finanzmitteln bei einer Unternehmensbewertung von über einer Milliarde US-Dollar ein, um ein Open-Source-Modell mit einer Billion Parametern zu entwickeln.

China hat den Markt für Open-Source-KI-Modelle erobert.

Amerikanische Investoren sehen sich einer unangenehmen Realität gegenüber: Die leistungsstärksten Open-Source-KI-Modelle werden mittlerweile in China entwickelt, nicht in den USA. Im vergangenen Jahr warnten Technologieexperten und Finanzleute zunehmend davor, dass die USA den Open-Source-KI-Markt still und leise an chinesische Labore wie DeepSeek, Moonshot AI und Z.ai verlieren.

Laut dem unabhängigen Ranking Artificial Analysis gehören alle sechs führenden Open-Source-Modelle chinesischen Unternehmen. Ihre Popularität wächst rasant: Der Anteil chinesischer Open-Source-Modelle an der gesamten wöchentlichen KI-Nutzung stieg laut einem Bericht von OpenRouter und der Risikokapitalgesellschaft Andreessen Horowitz von 1,2 % Ende 2024 auf fast 30 % im Dezember.

Die amerikanische Reaktion auf die chinesische Dominanz

Arcee AI ist überzeugt, das Blatt wenden zu können. Das Unternehmen, das sich auf die Entwicklung von Open-Source-KI-Modellen spezialisiert hat, verhandelt laut zwei mit der Angelegenheit vertrauten Quellen gegenüber Forbes mit Investoren, um über 200 Millionen US-Dollar bei einer Bewertung von über einer Milliarde US-Dollar einzuwerben. Arcee AI geht davon aus, dass westliche Investoren sowohl wirtschaftliche als auch ideologische Gründe sehen werden, eine heimische Alternative zu Chinas fortschrittlichen Open-Source-Modellen zu unterstützen.

Arcees Hauptkonkurrent wird Reflection AI sein, ein Startup, das von zwei ehemaligen Google DeepMind-Forschern gegründet wurde und im vergangenen Jahr 2 Milliarden Dollar mit dem gleichen Ziel eingesammelt hat, bessere amerikanische Open-Source-Modelle zu entwickeln.

Diese Woche veröffentlichte Arcee Trinity Large, ein Basismodell, das laut Unternehmen mit dem größten Meta-Llama-4-Modell vergleichbar ist. Arcee gibt an, Trinity Large und drei weitere kleinere Open-Source-Modelle in weniger als sechs Monaten für 20 Millionen US-Dollar trainiert zu haben. Während Labore üblicherweise keine Trainingskosten offenlegen, schätzte die Risikokapitalgesellschaft Innovation Endeavors die Kosten für das Training von Llama 4 auf über 300 Millionen US-Dollar und die von OpenAIs GPT-4 auf 100 Millionen US-Dollar. DeepSeek gab an, für das Training seines bekannten R1-Modells lediglich 294.000 US-Dollar ausgegeben zu haben.

Das 30-köpfige Startup arbeitet nun aktiv an seiner Skalierung. Ziel des Unternehmens ist es, ein offenes Modell mit über einer Billion Parametern zu trainieren – ein Schritt, der die Lücke zu führenden, hochmodernen geschlossenen Modellen wie OpenAIs GPT 5.2 oder Googles Gemini 3 schließen soll, so Quellen.

Unternehmensstrategie und Geschäftsmodell

Neben der Modellentwicklung plant Arcee AI den Ausbau seiner Geschäftsbereiche für Unternehmen und Behörden. Das Unternehmen möchte eine Plattform schaffen, auf der Kunden die Open-Source-Modelle von Arcee mithilfe ihrer eigenen Daten kontinuierlich optimieren können. Dieser Ansatz, so Arcee, bietet im Vergleich zu intransparenten, geschlossenen Systemen mehr Transparenz und Kontrolle.

Laut Pitchbook hat Arcee bereits 30 Millionen Dollar von Investoren wie Saudi Aramco, Microsoft M12 Ventures, Samsung NEXT Ventures und Emergence Capital Partners eingesammelt.

Wie seine chinesischen Konkurrenten veröffentlicht Arcee seine Modelle offen – die Parameter werden zwar öffentlich zugänglich gemacht, die Trainingsdatensätze bleiben jedoch privat. Diese Strategie gewann an Bedeutung, nachdem das chinesische Unternehmen DeepSeek vor einem Jahr den KI-Markt mit einem Hochleistungsmodell aufgerüttelt hatte, das angeblich zu einem Bruchteil der Kosten westlicher Modelle trainiert wurde. Der Schock von DeepSeek erwies sich jedoch als kurzlebig – Nvidia, das an einem einzigen Tag 600 Milliarden US-Dollar an Marktkapitalisierung verlor, erholte sich innerhalb weniger Wochen, nachdem KI-Experten erklärt hatten, dass das chinesische Labor die amerikanischen Spitzenmodelle nicht tatsächlich übertroffen hatte.

Ob Arcees Strategie mit Chinas Umfang und Geschwindigkeit mithalten kann, bleibt abzuwarten. Doch da sich das Machtverhältnis im Bereich offener KI nach Osten verschiebt, positioniert sich Arcee als eines der wenigen amerikanischen Startups, die es wagen wollen. Der Erfolg des Unternehmens wird zeigen, wie ernst amerikanische Investoren die geopolitischen Aspekte des Wettbewerbs im Bereich der KI-Technologie nehmen.

Meinung der KI

Aus Sicht des maschinellen Lernens verdeutlicht die aktuelle Situation das klassische Paradoxon offener Standards: Länder, die auf Offenheit setzen, gewinnen mehr Einfluss als jene, die geschlossene Systeme entwickeln. Die Geschichte kennt ähnliche Beispiele – Googles Android eroberte den globalen Smartphone-Markt gerade aufgrund seiner Offenheit, wodurch das geschlossene iOS einen geringeren Marktanteil erreichte.

Das chinesische Modell der staatlich subventionierten Open-Source-Entwicklung unterscheidet sich grundlegend vom amerikanischen Risikokapitalansatz. Peking kann sich „verlustbringende“ Investitionen leisten, um langfristige technologische Wirkung zu erzielen, während private Investoren eine Rendite fordern. Interessanterweise sind die 200 Millionen US-Dollar von Arcee AI im Vergleich zu chinesischen Staatsprogrammen verschwindend gering. Könnte der Versuch, aufzuholen und zu überholen, nun zu spät kommen, da sich das Ökosystem chinesischer Modelle bereits fest in der globalen KI-Infrastruktur etabliert hat?


Die interessantesten und wichtigsten Neuigkeiten auf unserem Telegram-Kanal

No votes yet.
Please wait...

Leave a Reply

Your email address will not be published. Required fields are marked *