Das Training von KI-Modellen braucht bekanntermassen massive Rechenressourcen und es wird immer mehr: Wie Meta-Chef Mark Zuckerberg zu Protokoll gab, rechnet
Meta damit, dass man für den Nachfolger des aktuellen Llama-3-Modells fast die zehnfache Rechenleistung dessen brauchen werde, was für das Training von Version 3 in Einsatz war (via "Techcrunch"). Und im Anschluss werde der Hunger nach Rechenleistung entsprechend weiter steigen.
Im gleichen Atemzug gab Meta-CFO Susan Li denn auch einen kleinen Einblick, welche Folgen das hat: Man denke aktiv darüber nach, wie man die Kapazitäten schaffen will, die es für diese Art von KI-Training brauche, so Li. Daher rechnet sie damit, dass die Kosten für den Ausbau der Rechenleistung 2025 deutlich ansteigen wird. Die ersten Entwicklungen davon sind bereits in den aktuellen Zahlen abzulesen, die Meta
Ende Juli präsentierte. Die Ausgaben stiegen um 33 Prozent gegenüber dem Vorjahr – befeuert durch Investitionen in Rechenzentren und Netzwerkinfrastruktur.
(win)