Python与SEO 词库完整指南¶
之前讲到了 SEO 频道,其中极其重要的一步,就是词库的建立了。
词库的整理和收集,一方面可以根据关键词获取到精准的、大量的流量,另一方面也可以了解用户的需求,方便第二步的模板设置。
关键步骤
SEO 词库一般有以下几个关键步骤:
第一步 关键词抓取
关键词抓取一般有以下几个来源:
抓取的工具也有很多,比如:
不过需要注意的是,抓取工具一定要支持往下一层抓取(也叫深度抓取),而不能仅限于源页面的抓取。
第二步 关键词扩展
抓取一批数据之后不要急着过滤和使用,要先扩展一批。
这里可以借用搜索引擎的能力和工具进行扩展,有以下几个方式:
扩展一大堆关键词之后还有非常重要的一步,就是关键词分析,整理关键词组合。
首先,通过分词和整理,可以拿到关键词的词根,以及对应的搜索量。
其次,手工把每个词根对应的关键词组合整理出来,并加上搜索量和出现次数
最后,就是考虑这些关键词怎么应用。如果关键词组合的搜索量特别大,而且主题明确且独特,是建议单独开设一个频道,比如 「城市」+ 天气。而对一些比较零散,无明确规则的关键词,则是需要添加到 SEO 频道,比如 “杭州八景”。
借用一张 GoGo闯 博文中的一张图:
注:GoGo闯 有一篇讲关键词分析的文章,这里推荐一下《【如何搭建SEO词库?】SEO关键词分析》。
第三步 关键词过滤
SEO 入库前还需要进行过滤。以下关键词过滤的具体规则(应该是中文最全的规则了):
- 单复数过滤,比如 led light 和 led lights
- 前后顺序调整过滤,比如 led light 和 light led
- 空格处理,其中包含首尾空格去除、多个合并为一个
- 特殊字符处理。除了字母和数字外的其他符号,都是特殊字符
- 大小写处理。一般是全部转换为小写
- 年份替换,比如 2016 替换为 2018
- 去停止词后去重。一定要注意,先去停止词之后再去重,比如 “南京天气” 和 “南京的天气”,这样就可以过滤掉
- 黑名单过滤。这里可以过滤掉包含黑名单里的关键词,而黑名单可人工维护,比如最近的一些敏感词
- 违禁词过滤,比如政治类敏感词、侵权品牌类关键词
- 结果数和相关性档位过滤。根据搜索结果进行过滤,比如相关性档位为 3 的产品少于 20 个,页面就不会创建(或自动添加 noindex)
- 纯数字, 字母过滤。对中文站来讲,纯字母的关键词比较偏向垃圾词,对英文站则不然
- 语种过滤。中文站需要排除掉其他语向的关键词
- 长度过滤。可以过滤掉过长或过短的关键词
- 单词数过滤,可以过滤掉一个单词,或者超过3个单词的关键词
注:上述很多规则来自阿里内部的关键词过滤工具中的功能。
第四步 补充字段 & 入库
入库时除了关键词以外,还需要补充相关的字段(对应每个数据库字段)
一般有以下数据:
- 关键词
- 行业分类,比如属于 3C 行业
- 关键词类型,比如是 price 类
- 添加时间
- 修改时间
- 添加人
- 搜索量
- 百度 / Google 结果数
- 分词结果,比如 “南京|旅游|攻略”
第五步 清理 & 优化
- 清理是为了剔除掉低效的页面,保证频道的效率。比如近一年内没有任何流量的页面。
- 优化是精细化的运营,比如有一批页面一直未抓取,则添加一批内链促进其抓取;或者排名在第二页但仍有流量,则需要稍微给一点内链帮助其上升到第一页
其他高级功能
随着词库规模的扩大,会遇到更多问题。这些都是考虑和解决的。
- 聚类。可以解决页面重复的问题,提高频道效率。
- 分类。可以根据不同的关键词类型,使用不同的模板,以更好的满足用户需求。
- 倾斜。根据搜索量或者转化率,资源向部分页面倾斜。
站群的词库
最后多说一点,我也做过站群的词库。
在站群项目中,内容、抓取量、链接资源都是极其有限的。这个时候,词库就显得极其重要。
一个好的词库,比一般词库的效果要好上几十倍。
而好的词库,甚至不惜人肉整理。几万个关键词人工筛选。
凡本网注明"来源:XXX "的文/图/视频等稿件,本网转载出于传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如涉及作品内容、版权和其它问题,请与本网联系,我们将在第一时间删除内容!
作者: 阿里国际站张亚楠
来源: https://www.sohu.com/a/287934039_100143190