SEO

  • SEO 优化网站,长期;

  • SEM 买排名,短期;

SEM :见效快、范围广、操作简单、季节性;但贵、波动大、恶意点击(模仿真实IP搜索点击指定竞价广告,让你造成预算快速消耗或广告提前下线)

网站主动收录

注意: * 链接提交尽量全 * 站点类型是否有移动 * 备案号提交

关键词优化

权重:title > description > meta keywords

来源:

  • 行业、业务

  • 竟对关键词

  • 关键词热度

  • 百度推广 - 关键词规划师

  • 站长工具 - SEO - 关键词挖掘

  • 爱站网

  • 百度指数

导航优化

  • 层级控制 3层内

  • 包含关键词

标签优化

  • title 标签,权重第一

    • 产品名 - keyword1-keyword2-keyword3 【分隔符:'|'、','、'-'】

    • 长度控制 64 字符,< 3个关键词

    • 搜索结果标题

  • keywords,权重第三

    • 长度控制 64 字符,< 5个关键词

    • 不展示,面向搜索引擎

  • description,权重第二

    • 描述这个网站干嘛的,包含关键词

    • 紧扣标题,包含 title 中的关键词

    • 长度控制 128 字符

    • 搜索结果简介

页面布局

关键词布局

  • 布局:F 型布局,避免单图、竖型

  • 关键词密度:关键词出现次数/总文字

    • 2%-8%,建议 6%

    • 工具:站长工具-关键词密度分析

  • 关键词分布

    • 第一段开头50-150个字中需包含一次关键字,可以加粗部分关键词

    • 正文中需要包含2-3次关键词或者近义词

    • 文章结尾包含一次关键词

  • 小技巧

    • 利用长尾词优化,由2-3个词组成,甚至是短语,先尝试占领长尾词排行

网站结构

一般 2-5 层,如 3层

  • 3次点击可以到达网页任何页面

  • 搜索引擎抓取3级可以抓到所有页面

重要的是离主页的层次,而非物理文件层次

  • 主页

    • 频道

      • 栏目

        • 内容

每层都有:标题、关键字、描述

logo优化

  • logo处添加H1标签

  • 在logo的a标签处添加title属性,填写主关键词

内链优化

域名必须完全一致,建议有面包屑导航,带关键字

  • 任何页面回首页

  • 链接到上一级各个页面,如内容页链接到所有的栏目

  • 链接到同层级页面,如文章1 → 文章2

四处一词

同一个关键词在 title、keywords、description 标签中出现,也要在超链接中出现,并链接到相关页面,首次出现可加粗显示

代码注意

<h> 标签

  • h1-h6 依次减弱

  • h1 / h2 不建议在一个页面中同时使用

  • h1 / h2 建议包含关键词

  • h1 / h2 建议只出现依次

  • h3/4/5 不建议使用

  • h6 可用于友情链接,降低友情链接对页面关键词的影响

<strong> 标签

  • 不要太频繁

  • 尽量只是关键词使用

  • 网站标题 / 文章小标题

<img> 标签 alt

  • 保持与图片相关,利于搜索引擎识别图片信息

  • 长度控制,64

Nofollow

当超级链接中出现nofollow标签时,搜索引擎不考虑此链接的权重,也不参与排名

  • 写在meta标签上,告诉爬虫不要抓取网页上的外部和内部链接;<meta name="robots” content="nofollow” />

  • 写在超链接a标签中,告诉爬虫不要抓取特定的链接

  • 网站链上垃圾网站会降低权限,对可以的第三方链接使用nofollow标签

  • 网站版权、备案、站外链接都应该加nofollow标签

robots.txt

存放在根目录下的文本文件,告诉爬虫哪些内容可否索引,也可以将不希望爬虫索引的内容放进此文件

  • 引导搜索引擎蜘蛛爬取

    • 指定栏目或内容

    • 抓取网站地图

  • 屏蔽页面

    • 死链、404错误页面

    • 无意义无内容页面

    • 重复页

    • 不想被收录的页面

    • 较大的文件,如图片、视频等节约宽带提升速度

语法及通配符
  • User-agent: 定义搜索引擎;

  • Disallow: 定义禁止蜘蛛爬取的页面或目录;

  • Allow: 定义允许蜘蛛爬取的页面或目录;

  • $ 匹配url结尾的字符;

  • * 匹配0个或多个任意字符;

Sitemaps

  • 通知爬虫哪些网页是可以爬取的

  • 此文件通常是xml格式

  • 每个网址包含一个父标记条目,一个子标记条目

  • 网址应该以http开头,少于2048个字符

  • 可以通过各个站长平台提交,也可以将地址放在 robots.txt 文件中;在 robots.txt 最后一行添加 http://www.yours.com/sitemap.xml

解决死链

  • 使用工具如 Xenu 找出死链

  • pl.soshoulu.com/webspeed.aspx 可以帮助找,如非 404 页面

  • robot 文件屏蔽死链,在搜索引擎的站长工具,提交死链页面

URL 优化

url常见不规范种类

  • 同一页面链接不统一;

  • 静态化url设置错误;

  • 静态和动态url共存;

  • 加密网址https和未加密网址http同时存在;

  • url中有端口;

  • 在url后面添加跟踪代码,如trace,click跟踪;

url不规范造成的问题:

  • 分散页面权重,不利于排名;

  • 干扰搜索引擎,影响url收录;

  • 重复页面过多,搜索引擎可能认为有作弊嫌疑;

  • 浪费资源和宽带;

做法
  • 链接保持统一

  • 使用canonical标签,解决 url 不同的重复页面

    • http://www.example.com/standerd?timestamp=12345 里添加 <link rel="canonical" href="http://www.example.com/standerd" />

    • 注意添加的链接不要绑定端,避免 PC 关联到移动端情况

    • 尽量使用绝对链接,而非相对

    • 一个页面中只设置一个canonical标签

    • 网站更换域名时,服务器不支持重定向的情况下,可以使用canonical标签

  • 制作xml网站地图规范化网址,提交搜索引擎;

  • 301重定向

301 使用

场景: * 网站的旧内容过期并被删除掉 * 具有链接和流量的无效URL * 更换了主机托管公司 * 网站更换程序,排版、url 变动 * URL规范化 ** 如主页可通过 abc.com、abc.com/index.html、www.abc.com、www.abc.com/index.html,只维护一个,其他301

网页a积累的权重将被转移到网页b,会损失一部分权重(当两个页面内容相同时)

302、js跳转 都属于作弊手段,尽量少用,仅建议在 404 延迟自动回首页使用

搜索引擎收录

查询: 'site:' + <域名>

异常情况

网页 404 / 500 展示页面,页面包含链接,来源 / 回首页(302) / 热门页面链接等

不要使用重定向将404页面跳转到首页,用户体验极差,可考虑 5s 后

有些打不开的页面返回码并非404,需将状态码设置成404;

图片 404 使用默认图片

css/js 404 使用本地缓存代替 cdn