搜索引擎喜欢什么样的内容
2016-07-08 00:00
134 查看
搜索引擎是网民上网的常用网站,能让自己的网站在搜索引擎上有靠前的排名,方便网民找到想要的内容也是提高网站访问量、提升网站知名度的有效方式之一。要达到这种效果,我们先看看搜索引擎对网站的内容有什么偏好。
1. 百度官方给出的关于网站内容质量方面的建议 1)网站的内容应该是面向用户的,搜索引擎也只是网站的一个普通访客,放置任何用户不可见或者欺骗用户的内容,都可能被搜索引擎当做作弊行为,这些行为包括但不仅限于:在网页中加入隐藏文字或隐藏链接;在网页中加入与网页内容不相关的关键词;具有欺骗性跳转或重定向;专门针对搜索引擎制作桥页;针对搜索引擎利用程序生成的内容;具有大量重复无价值内容;充斥大量恶意广告或恶意代码等。
2)百度更喜欢独特的原创内容,如果站点内容只是从各处采集复制而成,很可能不会被百度收录。
3)谨慎设置友情链接,如果网站上的友情链接多是指向一些垃圾站点,那么站点可能会受到一些负面影响。
4)谨慎加入频道共建、内容联盟等不能产生或很少产生原创内容的计划,除非我们能为内容联盟创造原创的内容。
5)百度会尽量收录提供不同信息的网页,如果网站上相同的内容可以通过不同形式展现(如论坛的简版页面、打印页),则可以使用Robots.txt(这个文件告诉搜索引擎蜘蛛程序在服务器上什么文件是可以查看的)禁止Spider(搜索引擎蜘蛛)抓取不想向用户展现的内容,这也有助于节省带宽。
2. 谷歌官方在《搜索引擎优化指南》网站内容篇中的阐述 提供高质量的内容和服务 创建让人眼前一亮且有价值的内容较之于这个指南里讨论的因素更容易影响网站。用户看到后知道网站上提供的内容质量很不错,这样他们也更喜欢引导其他用户到网站上来,比如通过博客文章、社会媒体服务、电子邮箱、论坛或者其他方式。口口相传可以在用户和Google两者里构建我们网站的信誉,而如果没有高质量的内容这一点是很难实现的。
一个Blogger(撰写博客的人)发现网站的一些很不错的内容后,比如某个棒球卡片网站,很可能他会在博客里提到。不管怎样,我们创建的内容可以涉及任何可以想象得到的主题,不过这里也有一些很值得推荐的实践经验。 网站内容优化实战经验
1)撰写容易阅读的文字。用户常常很喜欢那些写得很不错又很容易阅读的内容,但是要尽量避免下面两点: ·写一些含有大量拼写错误或语法错误的马虎文章。 ·直接把文字插入图片里作为网页的文字内容(这样的话用户就不可以复制并粘贴了,而搜索引擎也没法识别图片里的文字)。
2)尽量有序地围绕网站的主题。有序地组织内容常常是很有帮助的,它可以让用户对哪里是开头哪里是结尾有一个很直观的判断。把内容分解成一块一块的,可以帮助用户更快地找到他们想要的,只是需要避免把不同主题的大量文字扔在一张网页上,甚至没有分段,没有副标题,没有分层布局。
3)使用相关的语言。试着想一下用户要查询网站里的一部分内容所会使用的关键词。对同样的话题,行家所使用的关键词和那些新手所使用的关键词差别是很大的。Google AdWords提供了一个便捷的关键词工具,可以帮助我们发现一些不断变化的新关键词,也可以为某一个关键词提供一些相关搜索的关键词。同样,Google网站管理员工具也提供了一个热门搜索查询,来列出那些在搜索结果中网站内容出现次数最多和为网站带来了有效点击的关键词。
4)创建一些新鲜而又独特的内容。新的内容不仅可以保证网站现有的用户群的回访,与此同时还会带来更多的新访客。在这一点上尤其需要注意避免在网站里有大量重复或者接近重复的内容。
5)提供别人没有的内容或服务。试着创建一些其他站点无法提供的有用且新鲜的服务。可以写一些研究的原始报告,打破一些现已存在的新闻故事套路或者平衡一下网站唯一的用户群。其他站点可能正缺乏做这些事的资源或者能力。
6)优先为网站的用户提供内容,而不是搜索引擎。
参考企业模板网站
1. 百度官方给出的关于网站内容质量方面的建议 1)网站的内容应该是面向用户的,搜索引擎也只是网站的一个普通访客,放置任何用户不可见或者欺骗用户的内容,都可能被搜索引擎当做作弊行为,这些行为包括但不仅限于:在网页中加入隐藏文字或隐藏链接;在网页中加入与网页内容不相关的关键词;具有欺骗性跳转或重定向;专门针对搜索引擎制作桥页;针对搜索引擎利用程序生成的内容;具有大量重复无价值内容;充斥大量恶意广告或恶意代码等。
2)百度更喜欢独特的原创内容,如果站点内容只是从各处采集复制而成,很可能不会被百度收录。
3)谨慎设置友情链接,如果网站上的友情链接多是指向一些垃圾站点,那么站点可能会受到一些负面影响。
4)谨慎加入频道共建、内容联盟等不能产生或很少产生原创内容的计划,除非我们能为内容联盟创造原创的内容。
5)百度会尽量收录提供不同信息的网页,如果网站上相同的内容可以通过不同形式展现(如论坛的简版页面、打印页),则可以使用Robots.txt(这个文件告诉搜索引擎蜘蛛程序在服务器上什么文件是可以查看的)禁止Spider(搜索引擎蜘蛛)抓取不想向用户展现的内容,这也有助于节省带宽。
2. 谷歌官方在《搜索引擎优化指南》网站内容篇中的阐述 提供高质量的内容和服务 创建让人眼前一亮且有价值的内容较之于这个指南里讨论的因素更容易影响网站。用户看到后知道网站上提供的内容质量很不错,这样他们也更喜欢引导其他用户到网站上来,比如通过博客文章、社会媒体服务、电子邮箱、论坛或者其他方式。口口相传可以在用户和Google两者里构建我们网站的信誉,而如果没有高质量的内容这一点是很难实现的。
一个Blogger(撰写博客的人)发现网站的一些很不错的内容后,比如某个棒球卡片网站,很可能他会在博客里提到。不管怎样,我们创建的内容可以涉及任何可以想象得到的主题,不过这里也有一些很值得推荐的实践经验。 网站内容优化实战经验
1)撰写容易阅读的文字。用户常常很喜欢那些写得很不错又很容易阅读的内容,但是要尽量避免下面两点: ·写一些含有大量拼写错误或语法错误的马虎文章。 ·直接把文字插入图片里作为网页的文字内容(这样的话用户就不可以复制并粘贴了,而搜索引擎也没法识别图片里的文字)。
2)尽量有序地围绕网站的主题。有序地组织内容常常是很有帮助的,它可以让用户对哪里是开头哪里是结尾有一个很直观的判断。把内容分解成一块一块的,可以帮助用户更快地找到他们想要的,只是需要避免把不同主题的大量文字扔在一张网页上,甚至没有分段,没有副标题,没有分层布局。
3)使用相关的语言。试着想一下用户要查询网站里的一部分内容所会使用的关键词。对同样的话题,行家所使用的关键词和那些新手所使用的关键词差别是很大的。Google AdWords提供了一个便捷的关键词工具,可以帮助我们发现一些不断变化的新关键词,也可以为某一个关键词提供一些相关搜索的关键词。同样,Google网站管理员工具也提供了一个热门搜索查询,来列出那些在搜索结果中网站内容出现次数最多和为网站带来了有效点击的关键词。
4)创建一些新鲜而又独特的内容。新的内容不仅可以保证网站现有的用户群的回访,与此同时还会带来更多的新访客。在这一点上尤其需要注意避免在网站里有大量重复或者接近重复的内容。
5)提供别人没有的内容或服务。试着创建一些其他站点无法提供的有用且新鲜的服务。可以写一些研究的原始报告,打破一些现已存在的新闻故事套路或者平衡一下网站唯一的用户群。其他站点可能正缺乏做这些事的资源或者能力。
6)优先为网站的用户提供内容,而不是搜索引擎。
参考企业模板网站
相关文章推荐
- 微信搜一搜迈出新的一步,好戏来了
- AJAX 支持搜索引擎问题分析
- 搜索引擎对关键词作弊判断方法揭密
- 使用php记录用户通过搜索引擎进网站的关键词
- android将搜索引擎设置为中国雅虎无法搜索问题解决方法
- Asp.Net、asp实现的搜索引擎网址收录检查程序
- 如何让搜索引擎抓取AJAX内容解决方案
- PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
- php实现判断访问来路是否为搜索引擎机器人的方法
- php获取从百度、谷歌等搜索引擎进入网站关键词的方法
- 解析PHP对现有搜索引擎的调用
- C#判断访问来源是否为搜索引擎链接的方法
- WordPress特定文章对搜索引擎隐藏或只允许搜索引擎查看
- PHP屏蔽蜘蛛访问代码及常用搜索引擎的HTTP_USER_AGENT
- apache禁止搜索引擎收录、网络爬虫采集的配置方法
- java实现简单的搜索引擎
- 如何准确判断请求是搜索引擎爬虫(蜘蛛)发出的请求
- PHP统计nginx访问日志中的搜索引擎抓取404链接页面路径
- xunsearch数字搜索的特殊处理
- 各大搜索引擎的美感和创意如何?看“3·8”主页就知道了