AI搜索取代不了SEO

最近操作seo的许多从业者在大肆讨论 AI 搜索的价值以及可塑性,因为它很可能重塑整个SEO自然搜索的体验,以前的人只要想知道某些事,就会到搜索引擎搜看看相关的关键词,但这几年开始,人们的找资料的行为已经慢慢转变到依赖 AI,而这个趋势似乎也是不可逆的。

使用过AI应用的人都应该知道,大部分的AI都是透过爬虫大量搜集网站信息并且将答案呈现出来,AI 将信息搜集后进行重组并且提供给发问的人,但是这会是一个漏洞行为,许多网站并不具备权威性质,而网站里所呈现的文章原创程度又相当低,但是被 AI 予以使用,会有一定程度的概率使AI回答信息错误百出,在互联网上称之为AI幻觉(hallucination)。

而这个AI幻觉目前似乎也解决不了,因为要知道,所有的信息内容都是源自于人类,并非人工智能,人工智能是截取人类的智慧而衍伸出许多事物,举个例子,今天有一个新的游戏项目姑且称秘史群侠传,密史群侠传的游戏故事背景并不一定由人类所创造,AI也可以创造,但是人类的创造力跟AI的创造力是无法相比较的,我们从过去许许多多的作品就可以看见,好的作品需要集结众人的智慧所积累出来的,如果单靠AI所产生出来的是不会「接近完美」。

所以我们在操作SEO关键词的时候,或许会依靠AI写作来辅助,但是并不会完全地仰赖AI,因为AI所提供的信息会有「僵化现象」,无法像人类一样挥毫自如,于是我们在优化文章时,可以擅自控制我们想要的文章风格结构,例如网络上大家常讨论的 EEAT 优化,最终都是回到一个道理,就是:

  • 文章吸引多少人阅读
  • 让人停留在文章页面上多久
  • 透过什么关键词搜索到这篇文章

EEAT 只是一个现象趋势用专业的词汇把SEO加强说明而已,实际上就是围绕在刚刚三点,自然而然 Page Rank 就会慢慢提高,而当越来越多的文章页面 Page Rank 提高,就会慢慢带动整个网站的 Domain Rank,网络上很多SEO操作者喜欢将重复的内容布局到不同段落上,然后进行伪原创,这些都会被我认为是垃圾文章,虽然刻意加强内文关联性,但是这样的做法会「降低」留存率,因为现在的人吸收的知识越来越多,在上一秒已经看过的东西其实很容易被发现,如果又故意进行伪原创而放到下一个段落里,基本上很容易被读者忽略,这也是为何有一部份的人会开始选择用AI搜索来取得知识,因为更省时间。

例如今天你是一个失业的人,你在网上搜索:失业补助金领取条件

然后搜索结果的第一页通常会不尽理想,因为多数的排名结果都是政府网站,但是一个失业的人,他到网上搜索失业补助金领取条件,他想看到的是什么?他想看到的是:

  • 有没有人跟他一样在问同样问题
  • 有没有人有遇过相同问题并且有正确解答

这样子SEO操作就会事半功倍,你不需要胡乱优化关键词,一直不断堆叠失业补助金关键词,这是没有意义的,而现在社群讨论区点击率通常会比较高?因为都是「真人经验」,如果你写了一篇很制式的失业补助金领取条件的文章,基本上留存率不高,而且会随着时间越来越低。

像上述的失业补助金领取条件的例子,首先要有前言,也就是引文,这个内容也是要给搜索引擎知道主标题有没有符合内文,而内文又有没有充分包含标题的主旨

接着布局h2子标题,不一定要把失业补助金这五个字塞到子标题,可以用长尾关键词的概念去思考,例如:

  • 失业补助金该怎么领取
  • 失业补助金如何申请
  • 失业补助金申请资格条件
  • 失业补助金能领多久

像失业补助金如何申请,可以设置h2标签,而在这个子标题底下,再设置h3标签,因为”如何申请”的意思表示有”步骤”,因此步骤的名称可以设置h3标签。

如果你透过AI搜索,你会不容易取得「最新」的信息,因为AI的数据库会存有旧资料,就算取得最新资料也不一定完全正确,这就是为什么我的标题一开始会说:AI搜索无法取代SEO的原因。

文章结尾不一定需要写结论或心得,因为没有太大的必要,搜索引擎并不会参考,但是h2标签里的内文也可以放到FAQ,让搜索引擎的 Knowledge Graph 快速截取你网站内容,或者可以将失业补助金如何申请这样子的主题用另一篇新文章来撰写,提高网站曝光率。

而目前搜索引擎有一个趋势,就是越来越强调网站内容垂直度,假设你的网站内容一直都是讨论IT技术,突然有一天写了一篇失业补助金相关主题的文章,但是搜索引擎并不会把你这篇高质量文章的排名推到很前面,搜索引擎会认为你的网站主体长期聚焦在IT技术,因此你在IT相关的议题上,获得许多关键词的排名结果,但是在民生议题上,你不见得可以短时间获得好的排名结果,从我长期观察谷歌搜索引擎来看,一直以来新闻网的网站权重都是相当高的,而新闻网所讨论的议题也是千百种,撰稿者随便写个100个字就可以在相关关键词上面获得很好的排名,这对其他非新闻网的网站经营者来说相当不公平,因此「Google News」的机制就这么产生了,将新闻网的权重重新计算,并且把各式各样的议题以 Knowledge Graph 的方式呈现,而 Knowledge Graph 并非计算在关键词排名里,虽然看起来好像占据了一个区块,但没有在排名里。

因为新闻写出来的内容并没有高度专业知识,它只是呈现符合大众的阅读期待,如果你要取得知识,必须要阅读其他网站上的文章,而谷歌似乎有观察到这一点,因此调整了搜索演算法。

所以新闻网比较高垂直度文章的新闻,通常 Page Rank 都相当低,因为留存率太低,只有时事议题的留存率会稍微好一些。

最明显的例子就是区块链,许多聚焦Blockchain的人专门特别设置了网站进行新闻撰写,而传统的新闻网如果撰写Blockchain相关文章,排名都会特别低,反倒是高度专注Blockchain的新闻网,排名会特别好。

那么我们应不应该让AI爬虫爬取我们的网站内容呢?我建议是开方AI爬虫进行爬取,毕竟趋势使然造成部份流量转移到AI搜索上面,有一天你会发现到AI搜索上会出现你网站的内容片段,那也会是一个曝光来源的渠道,而且操作SEO可以导正AI幻觉,只要你不轻易尝试内容农场。

seo优化不单单是依靠你的营销策略,因为这种人才已经多如牛毛,如果你懂得自己维护网站,修改代码,那在这个时代,这样子操作SEO的人才并不容易被取代,千万不要过度相信网上所谓SEO顾问,因为通常这些人会利用大量的专有名词对客户进行模糊解释来获取利益。

赞(0)
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《AI搜索取代不了SEO》
文章链接:https://www.rank50.com/seo/2822.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

评论 抢沙发

登录

找回密码

注册