搜索引擎优化的核心只有一个:更准确。
早期,Google之所以能取代Yahoo,就是Google发现了通过PageRank对引用网站排序的算法,能让搜索结果趋向更准确,详细。
但Google确实只是呈现了搜索的结果,并以相关性做了一定的排列,目前的搜索引擎更多是依赖关键词匹配和类似PageRank的排名算法,这种方式处理简单问题时效果显著,但在面对复杂查询的时候,如多层次的问题、上下文依赖性强的问题的时候,往往难以提供准确且全面的答案。
用户一般需要浏览多个网页,自己不断综合信息来得到最终的答案。坦白来说,对于复杂问题的查询,这种方式实在太低效了。Perplexity就是看到了这个问题,于是在这个切入点切了进去,填补了这段空白。
我愿意为这段空白再详细解释一下,首先故事发生在2022年8月,四个创始人都是在Google AI工作的时候互相认识的,他们在开发大语言模型的时候发现,现代搜索引擎在处理复杂查询的时候,并没有很好地利用他们正在做的生成式大语言模型,而是还依赖关键词匹配和网页排名算法。
四位创始人希望用户使用Perplexity的时候,能获得一个全面的答案,这个答案能完整直接地回复用户的问题,而不是搜索出一堆经过算法排名后的网页链接。
毫无疑问,这个场景对于搜索引擎来说,是划时代的。就好像我们第一次使用ChatGPT一样感到惊艳,要知道大约3个月后OpenAI的ChatGPT才正式发布,Perplexity也确实向着搜索引擎最核心的优化方向前进,让搜索变得更准确。
在ChatGPT正式发布之后,大家终于发现,原来提出问题之后机器人的回答可以变得这么完整且详细,比传统的搜索引擎好多了,但无奈刚发布的ChatGPT只是基于早期训练的数据给出的答案,没法确保信息始终是最新的,而且在早期,ChatGPT的答案也并未标识来源。
这个时候,Perplexity除了跳过网页链接,直接显示搜索结果这个优势之外,还有其余两个优势:实时信息和可靠来源。
当你使用Perplexity提出问题的时候,数据将会自动从互联网上提取,信息始终是最新的,对于时效性要求高的搜索,这一点确实是一个很强硬的需求。
另外当你使用Perplexity提问题的时候,每个答案都引用了可靠的新闻媒体、学术论文和知名博客的内容,这一个优势颇有当年Google做PageRank的感觉,对于信息来源真实性要求很高的搜索,这一点确实也是一个很强的需求。
截止到目前为止,Perplexity上面所说的三种优势:跳过链接、实时信息和可靠来源,均已经成为了各大基础模型的标配功能,我不禁好奇:
为什么我不直接向例如GPT-4o这种大语言模型提问?而还要通过Perplexity去提问呢?Perplexity在这个过程提供了什么?要回答这个问题,恐怕我们要详细拆解一下Perplexity的工作流程。
第一步:输入阶段,接收用户的问题;
第二步:理解阶段,使用NLP技术解析用户的问题,识别关键词、真实意图和核心含义;
第三步:检索阶段,访问搜索引擎,实时获取相关信息,确保最相关和最可靠的信息排在前面;
第四步:生成阶段,调用像GPT-4o这种高级语言模型,获取原始数据转换为自然语言的回答,你可以理解为通过这一步,把第三步获得的信息,调用语言模型生成连贯和容易理解的文本;
第五步:输出阶段,Perplexity提供答案的同时,会显示引用具体的信息来源;
第六步:交互阶段,如果用户会进一步提出问题,Perplexity会理解上下文进行多轮对话,动态调整回答;
其实这是一种“搜索增强生成”技术,俗称RAG,Retrieval-Augmented Generation,本质上就是通过先检索相关信息,再利用生成模型进行答案的生成和整合。
乍一看,上面的第一、第二、第五和第六步都是常规步骤,只有第三和第四步起着关键的作用,很显然第四步是类似GPT-4o这种高级语言模型的强项,毕竟他们就是干这个的,那么Perplexity有可能在第三步突围成功吗?
请注意,Perplexity在检索阶段,并非依赖Google搜索引擎,而是使用自己的搜索和索引技术,通过每日索引互联网内容来确保信息的实时性和准确性。
你可以理解为,之前我们输入搜索内容后,得到一堆相关联的网页链接,基于这些链接我们查看完所有内容之后,再自己整合出最终的答案,这个整合最终答案之前的步骤,都是检索阶段要做的事情,只是机器帮你去完成罢了。
我不是专业的技术人员,无法对里面的细节做更进一步的详细评估,但我知道,如果检索阶段的事情完全依赖于Google,那RAG里面的6个步骤里,已经没有Perplexity什么事情了,所以最有可能的是,Perplexity会自己来做这一步,并力求做得比Google更好,这是一个“阅读检索内容”的步骤,比拼的是实时数据索引和检索的速度,如果对结果准确度还有追求的话,还需要自行对检索结果进行重排,也就是Reranking。
这正是Google一直以来正在研究且引以为傲的事情,Perplexity能否做到,我不知道。但在这之前,Perplexity(或者说AI搜索领域)对于搜索场景的刚需程度并没有很强,毕竟它的可替代性太多了,况且现在的基础语言模型就能直接满足用户需求。
Perplexity不仅和Google在掰手腕,而且还和各大基础语言模型在掰手腕,毕竟基础语言模型现在呈现出来的态势很明显,就是想方设法把检索阶段的事情,整合进自己的生态里。
Perplexity如果不死磕检索,还有什么可以做?我尝试大胆列举:
用户或许会想多模型对话,支持切换各大基础语言模型;
用户或许会想多模态搜索,支持文字、图片和视频等方式搜索;
用户或许会想多维度输出,支持对话、大纲、数据标注和论文等形式输出;
用户或许会想多信源搜索,支持仅在维基百科、仅在Discord和仅在GitHub里搜索;
这些都是比较细分的搜索场景了,但上面这些功能更像是搜索中介的定位,而非搜索引擎。况且随着时间的推移,既然基础模型能把检索阶段的事情整合进自己的生态里面,那么把上面这些niche场景下的功能整合进去,也不是完全没有可能。
AI带来的最大变量是生产力的提升,这是和移动互联网时代最大的不同。
这个生产力提升的根源在于并行计算的普及,让模型可以在更短的时间内建立信息与信息之间的联系,以至于模型在执行下次相同类似任务的时候,可以快速响应,基础的语言模型正是如此,无论是更贴近人类谈话的语言,还是更贴近问题的答案,在模型的视角里这些都已经“训练”了成千上万次了。
搜索场景从提出问题的那一刻起,就分为两个关键环节:收集搜索结果、整合搜索结果。而整合搜索结果的关键在于对大量相关信息的总结和输出,这正是语言模型的优势,也是AI带来生产力提升的表现,但这与Perplexity关系不大。
在收集搜索结果这个环节里,最关键的是确保相关性,能否利用大模型提前训练相关信息,提前建立有利于提升“相关性”的信息映射这是关键,下次实时信息索引的时候能否快速响应,就取决于此,否则在这个环节里,我们仍然是在处于移动互联网时代的“雕花”优化,根本没有受益于AI所带来的生产力提升。
Perplexity如果不往这个方面发力,AI对搜索场景的提升也只会是结果表达层面的提升,而AI搜索也只会是架在大模型之上的一座空中楼阁。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com