跳转到内容

langchain-nomic

PyPI - Version PyPI - License PyPI - Downloads

langchain_nomic

用于 LangChain 的 Nomic 合作伙伴集成。

NomicEmbeddings

基类:Embeddings

NomicEmbeddings 嵌入模型。

示例
from langchain_nomic import NomicEmbeddings

model = NomicEmbeddings()
方法 描述
aembed_documents

异步嵌入搜索文档。

aembed_query

异步嵌入查询文本。

__init__

初始化 NomicEmbeddings 模型。

embed

嵌入文本。

embed_documents

嵌入搜索文档。

embed_query

嵌入查询文本。

embed_image

嵌入图像。

aembed_documents async

aembed_documents(texts: list[str]) -> list[list[float]]

异步嵌入搜索文档。

参数 描述
texts

要嵌入的文本列表。

类型: list[str]

返回 描述
list[list[float]]

嵌入列表。

aembed_query async

aembed_query(text: str) -> list[float]

异步嵌入查询文本。

参数 描述
text

要嵌入的文本。

类型: str

返回 描述
list[float]

嵌入。

__init__

__init__(
    *,
    model: str,
    nomic_api_key: str | None = None,
    dimensionality: int | None = None,
    inference_mode: str = "remote",
    device: str | None = None,
    vision_model: str | None = None,
)

初始化 NomicEmbeddings 模型。

参数 描述
model

模型名称

类型: str

nomic_api_key

可选,设置 Nomic API 密钥。默认使用 NOMIC_API_KEY 环境变量。

类型: str | None 默认值: None

dimensionality

嵌入维度,用于支持 Matryoshka 的模型。默认为完整尺寸。

TYPE: int | None DEFAULT: None

inference_mode

如何生成嵌入。可以是 'remote''local' (Embed4All) 或 'dynamic' (自动) 之一。

类型: str 默认值: 'remote'

device

用于本地嵌入的设备。选项包括 'cpu''gpu''nvidia''amd' 或特定的设备名称。更多信息请参阅 GPT4All.__init__ 的文档字符串。

通常默认为 'cpu'

警告

请勿在 macOS 上使用。

类型: str | None 默认值: None

vision_model

用于图像嵌入的视觉模型。

类型: str | None 默认值: None

embed

embed(texts: list[str], *, task_type: str) -> list[list[float]]

嵌入文本。

参数 描述
texts

要嵌入的文本列表

类型: list[str]

task_type

嵌入时使用的任务类型。可以是 'search_query''search_document''classification''clustering' 之一。

类型: str

embed_documents

embed_documents(texts: list[str]) -> list[list[float]]

嵌入搜索文档。

参数 描述
texts

要作为文档嵌入的文本列表

类型: list[str]

embed_query

embed_query(text: str) -> list[float]

嵌入查询文本。

参数 描述
text

查询文本

类型: str

embed_image

embed_image(uris: list[str]) -> list[list[float]]

嵌入图像。

参数 描述
uris

要嵌入的图像 URI 列表

类型: list[str]

© . This site is unofficial and not affiliated with LangChain, Inc.