Vereinfachte Prozesse mit einem API-Aufruf Elasticsearch Open Inference API erlaubt Mistral AI Embeddings

Von Marvin Djondo-Pacham 1 min Lesedauer

Anbieter zum Thema

Die „Elasticsearch“-Vektordatenbank von Elastic speichert künftig die „Mistral“ AI-Einbettungen „mistral-embed“ und segmentiert sie mit nativen Integrationen zum Open Inference-Application Programming Interface (API) und dem „semantic_text“-Feld automatisch.

„Elasticsearch“ integriert „Mistral“ AI-Einbettungen und vereinfacht Speicherung sowie Segmentierung auf nur einen API-Aufruf.(Bild:  death_rip - stock.adobe.com)
„Elasticsearch“ integriert „Mistral“ AI-Einbettungen und vereinfacht Speicherung sowie Segmentierung auf nur einen API-Aufruf.
(Bild: death_rip - stock.adobe.com)

Das Resultat der Einbettung ist laut Elastic eine verkürzte Markteinführungszeit für Retrieval-augmented Generation (RAG)-Anwendungen und ein vereinfachter Entwicklungsprozess. Entwickler können mit der neuen Integration schnell einen Inferenzendpunkt einrichten, indem sie die API zum Erstellen von Inferenzen nutzen und das Mistral-Embed-Modell spezifizieren.

Dank des mistral-embed ist es nicht mehr nötig angepasste Chunking-Strategien zu entwerfen und Chunking in Hinblick auf die Speicherung von Vektoren zu definieren. Elasticsearch übernimmt automatisch die Verbindung zur Mistral-Plattform, testet die Anmeldeinformationen und konfiguriert die relevanten Einstellungen, wie die Anzahl der Dimensionen und Ähnlichkeitsmaße.

Speicherung und Segmentierung mit nur einem API-Aufruf

Sobald der Inferenzendpunkt eingerichtet ist, kann die „semantic_text“-Zuordnung verwendet werden, um automatisch Einbettungsvektoren beim Indizieren von Dokumenten zu erstellen. Dieser Prozess ermöglicht es Entwicklern, ihre Daten effizient in Elasticsearch zu laden und zu durchsuchen. Dabei nutzt die semantische Textabfrage den Mistral-Inferenzendpunkt, um präzise Suchergebnisse zu liefern.

Shay Banon, Gründer und Chief Technology Officer bei Elastic, hebt die Vereinfachung des Entwicklungsprozesses durch die Integration der Mistral-Embeds hervor: „Durch unsere Zusammenarbeit mit dem Mistral AI-Team vereinfachen wir den Prozess, Einbettungen in Elasticsearch zu speichern und zu segmentieren, hin zu einem einzigen API-Aufruf.“

Wir probieren verschiedene Optionen aus, wie Künstliche Intelligenz die Artikel zu Gehör bringen kann. Nachfolgend ist unser ersten Versuch zu finden mit dem „Synthesia“-Avatar, den die Redaktion „Brian“ getauft hat.

(ID:50138059)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung