EmbeddingGemmaは、コンパクトな308Mパラメータの多言語埋め込みモデルで、オンデバイスRAGアプリケーションに最適で、LlamaIndexとの統合が非常に簡単になりました。 🛠️ LlamaIndexの@huggingface Embeddingクラスとのすぐに使える統合 - クエリとドキュメントのプロンプトを指定するだけです このモデルは、モバイルデバイスに対して十分な小型でありながら、Massive Text Embedding Benchmarkでトップランキングを獲得しています。さらに、簡単に微調整可能で、このブログでは、医療データの微調整により、はるかに大規模な代替品よりも優れたモデルがどのように作成されたかを示しています。 このような効率的なモデルは、強力な埋め込みをどこからでもアクセスできるようにし、特にすべての MB が重要なエッジ展開では大好きです。 技術的な詳細と統合の完全な例をご覧ください。