Mistral AI, eines der grössten europäischen KI-Unternehmen, hat mit
Mistral Small 3 ein neues LLM mit 24 Milliarden Parametern vorgestellt. Trotz der vergleichsweise geringen Parameterzahl überflügelt Mistral Small 3 die Konkurrenten: Es arbeitet laut dem Mistral AI Team so gut als und dreimal so schnell wie Metas Llama 3 mit 70 Milliarden Parametern und ist punkto Geschwindigkeit und Latenz auch besser als OpenAIs GPT-4o mini.
Das neue Mistral-LLM, veröffentlicht als Open Source unter Apache-2.0-Lizenz, sei zudem ein "ausgezeichneter offener Ersatz für undurchsichtige proprietäre Modelle wie GPT4o-mini", äussert sich Mistral AI
auf seiner Website. Mistral Small 3 sei ein vortrainiertes oder instruktionsabgestimmtes Modell für "die 80 Prozent der generativen KI-Aufgaben", also für Aufgaben, die eine robuste Sprach- und Instruktionsverfolgungsleistung mit sehr geringer Latenzzeit erforderten. Der auf Instruktion abgestimmte Checkpoint schneide bei Benchmarks in den Bereichen Code, Mathematik, Allgemeinwissen und Instruktion gleich gut ab wie Modelle mit offenem Gewicht, die dreimal so gross sind.
Mistral Small 3 ist verfügbar als mistral-small-latest oder mistral-small-2501
auf La Plateforme, der 2023 eröffneten KI-Endpoint-Plattform von Mistral AI. Dort finden sich auch die Modelle Mistral-tiny, Mistral-small und Mistral-medium.
(ubi)