Meta nutzt über 100'000 H100-GPUs für Llama-4-Training
Quelle: Nvidia

Meta nutzt über 100'000 H100-GPUs für Llama-4-Training

Die Llama-4-Sprachmodelle von Meta werden laut Konzernchef Mark Zuckerberg mithilfe eines Clusters trainiert, der aus über 100'000 Nvidia-H100-GPUs besteht. Doch auch andere Unternehmen wie Musks X wollen mit ähnlich grossen Clustern punkten.
4. November 2024

     

Meta-Chef Mark Zuckerberg gab anlässlich eines kürzlichen Investoren-Calls an, dass sein Unternehmen die neuen Llama-4-Sprachmodell auf einem Cluster trainiere, der über 100'000 KI-GPUs vom Typ Nvidia H100 umfasse. "Das ist grösser als alles, von dem berichtet wird, was andere tun." Dies schreibt unter anderem "Tom's Hardware" in einem Artikel. Gigantisch ist auch der Stromverbrauch eines 100'000-H100-Clusters: Er beläuft sich pro Jahr auf mindestens 370 Gigawattstunden.

Weitere Details zu Llama 4 gab Zuckerberg den Investoren laut dem Bericht nicht bekannt. Laut "Wired" hat sich Zuckerberg in punkto Llama 4 geäussert, es warte mit "neuen Modalitäten und stärkerer Argumentation" auf und sei "viel schneller". Ob der KI-GPU-Cluster von Meta nun wirklich der grösste ist, ist unklar. Denn X-Eigner Elon Musk hatte im Juli 2024 einen vergleichbaren Cluster angekündigt, ihn "Gigafactory of Compute" genannt und von Plänen gesprochen, den Cluster auf 200'000 KI-GPUs auszubauen. Aber: Bereits Anfang 2024 hat Meta Erwartungen verkündet, bis Ende Jahr über eine halbe Million mit H100 vergleichbare KI-GPUs einzusetzen. Das Rennen bleibt somit offen.


Llama 4 wird im Gegensatz zu OpenAIs GPT-40 oder Googles Gemini für Forscher, Unternehmen und Organisationen offen und kostenlos veröffentlicht, wenn auch unter gewissen Bedingungen. So ist etwa die kommerzielle Nutzung von Llama 4 eingeschränkt. GPT-40 und Gemini sind dagegen nur via API zugänglich. (ubi)


Weitere Artikel zum Thema

Open Source Initiative definiert quelloffene KI

30. Oktober 2024 - Die Kalifornische Open Source Initiative (OSI) definiert die Kriterien, welche erfüllt werden müssen, damit eine KI als Open Source bezeichnet werden darf. Diese orientieren sich an den Grundprinzipien von quelloffener Software.

Meta entwickelt eigene KI-basierte Suchmaschine

29. Oktober 2024 - Meta arbeitet hinter den Kulissen an einer eigenen Suchmaschine. Damit möchte man die eigene KI mit Informationen füttern und die Abhängigkeit zur Tech-Konkurrenz reduzieren.

KI-Training benötigt immer mehr Rechenpower, Meta investiert

13. August 2024 - Der Leistungshunger für das Training der KI-Modelle wächst und wächst. Llama 4 soll gar das Zehnfache von Llama 3 benötigen, wie Mark Zuckerberg überzeugt ist. Meta denkt über entsprechende Investitionen nach.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER