
Telegram hat sein eigenes dezentrales Netzwerk Cocoon (Confidential Compute Open Network) gestartet, das KI-Anfragen von Nutzern in sicheren Enklaven verarbeitet – speziellen, isolierten Speicherbereichen, in denen die Daten auch während der Verarbeitung verschlüsselt bleiben. Der neue Dienst ist eine Reaktion auf gescheiterte Verhandlungen mit Elon Musks xAI zur Integration von Grok in den Messenger.
Warum der xAI-Deal scheiterte
Die Verhandlungen über die mögliche Integration von Grok in Telegram umfassten ein Angebot von 300 Millionen US-Dollar in bar und Aktien sowie 50 % der Abonnementumsätze von xAI über den Messenger. Pavel Durov lehnte das Angebot jedoch aufgrund von Bedenken hinsichtlich des Datenschutzes ab.
Der Chef von Telegram erläuterte seine Position bereits im Oktober 2025 auf der Blockchain Life 2025 Konferenz in Dubai, wo er die Risiken zentralisierter künstlicher Intelligenz erörterte. Er vertrat die Ansicht, dass die Datenverarbeitung den Menschen und nicht Konzernen oder Regierungen gehören sollte.
Zentralisierte KI-Anbieter hätten auf Nutzerdaten zugreifen können, um Algorithmen zu trainieren, Profile zu erstellen und diese möglicherweise zu manipulieren. Musk dementierte später, dass der Deal abgeschlossen sei, und keine der beiden Parteien äußerte sich öffentlich zu dem Thema.
Cocoon-Architektur und Betriebsprinzipien
Das Netzwerk basiert auf der Blockchain von The Open Network ( $TON ) und nutzt die Trusted Execution Environments (TEE)-Technologie. Benutzeranfragen und Modellergebnisse werden in sicheren Umgebungen verarbeitet, sodass weder der GPU-Besitzer noch der Netzwerkbetreiber die Dateninhalte einsehen können.
Weltweit stellen GPU-Besitzer Rechenleistung zur Verfügung und erhalten $TON- Prämien für abgeschlossene Aufgaben. Entwickler von Telegram-Apps und Mini-Apps können sich mit dem Netzwerk verbinden und KI-Leistung kostengünstiger als in zentralisierten Clouds nutzen.
Telegram hat sich bereits zu einem der größten Nutzer seines eigenen Netzwerks entwickelt. Viele der integrierten KI-Funktionen des Messengers – Nachrichtenübersetzung, Spracherkennung, Zusammenfassungen längerer Beiträge in Kanälen und die Sofortansicht – basieren teilweise oder vollständig auf Cocoon.
Praktische Anwendung
Das Telegram-Update vom 8. Januar 2026 führte die KI-Zusammenfassungsfunktion für längere Kanalbeiträge und Sofortansichtsartikel ein. Diese Zusammenfassungen werden mithilfe von Open-Source-Modellen auf Basis von Cocoon generiert.
Das Projekt ist Open Source und in einem GitHub-Repository verfügbar. In den kommenden Wochen plant das Team, weitere GPUs hinzuzufügen und Entwickler für das Ökosystem zu gewinnen, um Telegram-Nutzern neue KI-Funktionen und volle Datenkontrolle zu bieten.
Meinung der KI
Eine Analyse historischer Daten offenbart ein interessantes Muster: Die meisten dezentralen Computerprojekte (Golem, iExec, Akash Network) standen vor dem „Kaltstartproblem“ – der Schwierigkeit, gleichzeitig GPU-Anbieter und -Nutzer zu gewinnen. Cocoon löst dieses Dilemma elegant, da Telegram bereits der größte Nutzer seines eigenen Netzwerks ist.
Die Implementierungsgeschwindigkeit ist beeindruckend: Von der Ankündigung im November 2025 bis zur Integration von AI Summary im Januar 2026 vergingen weniger als drei Monate. Ein solches Tempo ist für dezentrale Projekte ungewöhnlich, da der Aufbau eines stabilen Netzwerks üblicherweise Jahre dauert. Wird das Team diese Geschwindigkeit auch bei der Skalierung auf Tausende von GPU-Knoten beibehalten können?
