网站的基础知识,wordpress数字证书登录,更新网站内容,中英文的网站设计作者#xff1a;来自 Elastic Serena Chou, Aditya Tripathi Elastic Search 8.12 包含新的创新#xff0c;可供开发人员直观地利用人工智能和机器学习模型#xff0c;通过闪电般的快速性能和增强的相关性来提升搜索体验。 此版本的 Elastic 基于 Apache Lucene 9.9#xf…作者来自 Elastic Serena Chou, Aditya Tripathi Elastic Search 8.12 包含新的创新可供开发人员直观地利用人工智能和机器学习模型通过闪电般的快速性能和增强的相关性来提升搜索体验。 此版本的 Elastic® 基于 Apache Lucene 9.9有史以来最快的 Lucene 版本构建并更新了一些我们最流行的集成integrations例如 Amazon S3、MongoDB、MySQL 等。 我们的 inference API 抽象了单个 API 调用背后嵌入管理的复杂性并且 kNN 现在已提升为查询 (query) 类型。
与使用旧版本 Elastic 构建的搜索体验相比通过简单升级客户可以获得令人难以置信的速度提升并且开发人员将拥有更有效的工具来定制搜索体验并且代码更简洁更易于维护。
Elastic Search 8.12 现已在 Elastic Cloud 上推出这是唯一包含最新版本中所有新功能的托管 Elasticsearch® 产品。 你还可以下载 Elastic Stack 和我们的云编排产品 Elastic Cloud Enterprise 和 Elastic Cloud for Kubernetes以获得自我管理的体验。
Elastic 8.12 中还有哪些新功能 查看 8.12 公告帖子了解更多 站在巨人的肩膀上 Lucene 9.9
Apache Lucene 9.9 是有史以来最快的 Lucene 版本我们很高兴能够根据客户的需求贡献关键创新。 通过 Elastic 投资于所选的行业技术最先进的搜索体验无论是基于 BM25、向量搜索、语义搜索还是上述所有搜索的混合组合对于用户来说只是一次升级。 Elastic 用户首先受益并且可以放心这些创新是在考虑到他们的环境的情况下构建的。
所有搜索用户都将受益于对标量量化、搜索并发性默认启用的支持以及融合乘加 (FMA) 和 block-max MAXSCORE 工作带来的大幅加速。
借助 8.12客户可以以适合自己的价格体验这些功能并通过使用 Elastic Cloud 体验最佳的 TCO (total cost of ownership)。 对于 AWS 云用户现在有一个向量搜索优化的硬件配置文件可使用 Elastic 平台来加速和提升所有用例的搜索体验。 _inference在单个 API 调用后面的嵌入管理
今年早些时候我们推出了 Elasticsearch 相关性引擎这是几年研发的成果。 这些功能的核心部分始终是灵活的第三方模型管理使客户能够利用当今市场上下载最多的向量数据库及其选择的转换器模型。
我们通过更新_inference一个顶级 API 端点将嵌入管理的复杂性抽象为单个请求来支持与供应商无关的模型访问从而不断改进开发人员体验。
想要一键部署我们相关性领先的 Elastic Learned Sparse EncodeR 模型并开始使用它进行推理
POST _inference/sparse_embedding/my-elser-model
{input: Semantic search is within reach.
}
比如我们可以使用如下的命令来创建一个 inference API
PUT _inference/sparse_embedding/.elser_model_2
{service: elser,service_settings: {num_allocations: 1,num_threads: 1},task_settings: {}
}
我们可以通过如下的方法来进行推理
POST _inference/sparse_embedding/.elser_model_2
{input: Semantic search is within reach.
} 可以在 Elastic 平台内管理 E5 等第三方多语言模型或者通过相同的简单 _inference API 调用部署在 Hugging Face Inference Endpoints 上时可以轻松访问它们。
PUT _inference/text_embedding/my_test_service
{service: hugging_face,service_settings: {url: url,api_key: api key}
}
比如在我的电脑上我使用如下的命令来创建一个叫做 test 的 model id:
PUT _inference/text_embedding/test
{service: openai,service_settings: {api_key: YourOpenAiKey},task_settings: {model: text-embedding-ada-002}
} 我们可以使用如下的方式来获得 embeddings
POST _inference/text_embedding/test
{input: Semantic search is within reach.
} 在上面它返回 1536 维的向量。
同样我们也可以针对 hunggingface 来做同样的事
PUT _inference/text_embedding/hugging-face-embeddings
{service: hugging_face,service_settings: {api_key: access_token, url: url_endpoint }
}
在 Hugging Face 端点页面上创建新的推理端点以获取端点 URL。 选择要在新端点创建页面上使用的模型 - 例如 intfloat/e5-small-v2 - 然后选择高级配置部分下的句子嵌入任务。 创建端点。 端点初始化完成后复制 URL。
在 Elastic Search 8.12 中只需简单下载或单击按钮即可快速完成使用 Elastic 平台管理 E5 模型的操作。 选择在 Elastic 中管理此模型使用户能够从特定于平台的优化中受益从而获得更好的搜索体验性能。 _inference 也与 OpenAI 原生集成因此使用像 text-embedding-ada-002 这样的模型可以简单如下
PUT _inference/text_embedding/test
{service: openai,service_settings: {api_key: api key,organization_id: org id},task_settings: {model: text-embedding-ada-002}
}
使用 kNN 搜索的开发人员会很高兴得知 kNN 现在可以作为另一种查询类型。 这使得可以使用其他平台功能例如通过 kNN 搜索固定查询。 我们将其与添加到 Profile API 中的其他统计数据配对以便更好地调试 kNN 搜索 - 进行了一些更改从而形成了一套非常强大的工具可以将向量搜索添加到您今天的应用程序中。 请参阅 8.12 平台发布博客了解更多详细信息。 更多原生连接器现已正式发布而且它们的功能甚至更多
检索增强生成 (RAG) 实施凭借结构良好、优化的数据而蓬勃发展。 通过我们的 Elastic 集成目录最好使用本机连接器来为这些类型的搜索体验构建正确的上下文。
原生连接器是托管在 Elastic Cloud 中的 Elastic 集成只需要一些输入即可配置集成。 对于希望以自我管理方式同步内容的开发人员来说所有本机连接器都可以使用 Docker 部署的连接器客户端并使用新的 _connector API 进行管理。
在 8.12 中我们启用了 Amazon S3、Google Cloud Storage、Salesforce 和 Oracle 连接器的原生使用并且以下连接器已普遍可用
Azure Blob 存储谷歌云存储亚马逊 S3MongoDBMySQLPostgresSQL 数据库
添加了对连接器的其他改进例如对 Dropbox、GitHub 连接器的文档级安全支持以及对 Amazon S3 连接器的高级同步规则支持。
使用 Elastic 集成时所有摄取的数据都可以快速转换或分块以利用 _inference 提供的所有令人难以置信的 8.12 机器学习功能以及 Lucene 9.9 引入的创新。 试试看
请阅读发行说明中了解这些功能以及更多信息。 在 Search Labs 中查找代码参考、笔记本和最新研究。
现有 Elastic Cloud 客户可以直接从 Elastic Cloud 控制台访问其中许多功能。 没有利用云上的 Elastic 开始免费试用。 本文中描述的任何特性或功能的发布和时间安排均由 Elastic 自行决定。 当前不可用的任何特性或功能可能无法按时交付或根本无法交付。 原文Elastic Search 8.12: Making Lucene fast and developers faster | Elastic Blog