Google Cloud hat die Einführung neuer Einbettungsmodelle in Vertex AI angekündigt: "text-embedding-004" und "text-multilingual-embedding-002". Diese Modelle zeichnen sich durch die Möglichkeit aus, optimierte Einbettungen basierend auf "Aufgabentypen" zu erstellen.

Diese Funktion ist besonders wertvoll in Retrieval Augmented Generation (RAG)-Anwendungen, bei denen die herkömmliche Ähnlichkeitssuche aufgrund der unterschiedlichen Natur von Fragen und Antworten oft zu ungenauen Ergebnissen führt. Zum Beispiel haben eine Frage wie "Warum ist der Himmel blau?" und ihre Antwort "Die Streuung des Sonnenlichts verursacht die blaue Farbe" unterschiedliche Bedeutungen.

"Aufgabentypen" schließen diese Lücke, indem sie es den Modellen ermöglichen, die Beziehung zwischen Abfrage und Antwort zu verstehen. Wenn Sie beispielsweise den Aufgabentyp "QUESTION_ANSWERING" für Abfragetexte und "RETRIEVAL_DOCUMENT" für Antworttexte angeben, können die Modelle Einbettungen näher beieinander im Einbettungsraum platzieren, was zu genaueren Suchergebnissen führt.

Diese neuen Modelle basieren auf einer Technik namens "LLM-Destillation", bei der ein kleineres Modell aus einem großen Sprachmodell (LLM) trainiert wird. Dies ermöglicht es den Einbettungsmodellen, einige der Argumentationsfähigkeiten von LLMs zu erben, was zu einer verbesserten Suchqualität bei gleichzeitig geringerer Latenz und geringeren Kosten führt.

Zusammenfassend lässt sich sagen, dass "Aufgabentypen" in Vertex AI Embeddings einen großen Schritt nach vorne bei der Verbesserung der Genauigkeit und Effizienz von RAG-Systemen darstellen. Durch die Vereinfachung der semantischen Suche ermöglicht diese Funktion Entwicklern, intelligentere Anwendungen zu erstellen, die die natürliche Sprache besser verstehen.