00:00 / 03:07
连播
清屏
智能
倍速
点赞2986
00:00 / 03:07
连播
清屏
智能
倍速
点赞914
00:00 / 00:15
连播
清屏
智能
倍速
点赞474
00:00 / 00:56
连播
清屏
智能
倍速
点赞110
00:00 / 01:57
连播
清屏
智能
倍速
点赞806
00:00 / 01:15
连播
清屏
智能
倍速
点赞10
00:00 / 01:12
连播
清屏
智能
倍速
点赞30
00:00 / 00:30
连播
清屏
智能
倍速
点赞NaN
00:00 / 03:40
连播
清屏
智能
倍速
点赞2
00:00 / 07:37
连播
清屏
智能
倍速
点赞9
《OceanBase 向量 / 标量 / 全文混合检索》 语言大模型类请求上下文窗口,一般都在 128K 以下,而且喂给模型的请求包含很多信息,比如提示词、记忆、从知识库中检索的信息。大模型拥有比较强大的泛化能力,但是最终效果还是需要依赖整个请求中的上下文信息。理想情况下,大家都希望能够把更多的信息塞给大模型(如果可以的话,希望整个知识库都塞给大模型),取得最好的效果。 但是实际情况是,大模型的上下文窗口比较小,而且塞的越满,模型效果可能越差。受限于大模型的上下文窗口大小,每个 token 都珍贵,最终塞给大模型的数据要尽量有相关性、精炼、准确。因此,如何高效的从一个超大数据集找到大模型强依赖的信息,变的尤为重要。 OceanBase 不仅支持多模数据类型,基于同一份数据,还同时支持向量、全文等排序方式,并且是将多路检索融合到一个算分排序框架中,带来更高精度的同时,也避免了数据一致性 / 成本 / 易用性的问题。 OceanBase 作为一款金融级的单机分布式一体化数据库,除了支撑淘宝和支付宝历年双十一的高可用和低成本以外: 在粗排能力上,比业界典型竞品数据库有更高的性能。 在向量功能上,可以平替 Milvus 的各种算法和功能。 在全文检索上,支持 RAG 场景下对 BM25、Multi Match、稀疏减枝算法、RankFeature 等功能的要求,可以平替 ElasticSearch。 欢迎大家试用 OceanBase 的向量 / 标量 / 混合检索能力! #OceanBase #数据库 #AI
00:00 / 22:46
连播
清屏
智能
倍速
点赞1
00:00 / 42:35
连播
清屏
智能
倍速
点赞29
00:00 / 16:50
连播
清屏
智能
倍速
点赞0
00:00 / 04:13
连播
清屏
智能
倍速
点赞166
00:00 / 01:49
连播
清屏
智能
倍速
点赞27
00:00 / 03:07
连播
清屏
智能
倍速
点赞25