Auf seiner Entwicklerkonferenz Dockercon hat Docker zusammen mit den Partnern Neo4j, Langchain und Ollama einen neuen GenAI-Stack angekündigt. Dieser soll Entwicklern helfen, innerhalb von Minuten die Arbeit mit generativen KI-Anwendungen zu beginnen, wie es in der Mitteilung heisst. Der Stack setzt sich aus Sprachmodellen (LLMs) von Ollama, Vektor- und Graph-Datenbanken von Neo4j und dem Langchain-Framework zusammen. Damit, so
Docker, entfalle die umständliche Suche nach passenden Technologien aus verschiedenen Quellen und deren Konfiguration: "Der Stack ist vorkonfiguriert, bereit zum Programmieren und sicher."
Der GenAI-Stack steht im Learning Center in
Docker Desktop sowie
in Github als Repository bereit. Er unterstützt häufige Generative-AI-Anwendungsfälle und verwendet vertrauenswürdige Open-Source-Inhalte des Docker Hubs. An Sprachmodellen bietet er unter anderem Llama2, Code Llama und Mistral (alle Open Source) sowie private Modelle wie GPT-3.5 und GPT-4 von OpenAI. Dazu kommen Neo4j als Standarddatenbank für Graph und native Vektorsuche, Neo4j-Knowledge-Graphen als Wissensbasis für LLMs, Langchain-Orchestrierung zwischen LLM, Anwendung und Datenbank sowie diverse Tools, Code-Beispiele und Anleitungen.
(ubi)