如何优化网站搜索引擎?具体操作和流程?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何优化网站搜索引擎?具体操作和流程?相关的知识,希望对你有一定的参考价值。
网站搜索引擎优化简称为SEO,所需工具是站长工具平台。流程如下:
1.文章每行文本长度控制在56个字符左右。
2.段落之间有一定的空隙
3.要想网站有排名,就必须被收录;要想被收录必须重视网站内容,网站内容必须符合用户需要才可以。
4.站在网民的角度去看待网站,就是用户体验。
5.网站源码要精简,css样式表合并。
网站内容有向价值。
title标签:三个关键词就行了。
description:简单的告诉用户当前页面是讲什么的。
一个页面只能出现一个h1标签,其他h2,h3等出现长尾关键词
6.站内优化:网站的导航和首页布局要符合用户的需求,知道用户对哪些内容感兴趣,关键词看百度下拉框和相关搜索。 例如:网站模板怎么使用?定做网站模板和模板差别,网站模板免费。
路径采用目录中的主要关键词全拼,最好是两个词。
通过整理百度知道等内容获得高质量的文章。
当内容出现用户难理解的内容时有内链的布局。
文章内部内链一定要连接到对应的最终页。
相关推荐文章一定要关键词相关。
参照对手的文章。
7.网站失败的原因有很多种,但是成功的原因只有一个,那就是把它当做自己的宝贝来看待。
坚持是王道,而技术仅仅是辅助罢了。
外链要与自己的网站相关。
8.网站主题和关键词要明确
树立目标客户。
产品或服务+特点功能(质地、类别、行业背景)
产品或服务+价格费用(多少钱、性价比等)
产品或服务+产品质量(怎么样、好不好)
产品或服务+搜索意图(是什么,怎么用,哪里有卖)
产品或服务+品牌型号(品牌名称,通用型号)
产品或服务+经营模式(批发,代理,加盟等)
产品或服务+服务方式(培训,函授等)
产品或服务+企业信息(公司名称,电话,联系方式等)
产品或服务+错字别字(易混淆品牌和名称等)
产品或服务+领域区域(应用领域,地域名称)
这个是网站优化的大致方法和步骤,具体是否能排名到百度前页,还得看你对自己的坚持有多久!像家装水电安装网站可以作为参考,共同交流学习。 参考技术A 首先我们就要做好网站的内容。网站的原创内容只是基础,我们还需要通过一些方法来满足用户的需求才能提升网站内容的质量。对于网站的站外更新的话,主要的就是我们每天需要更新的一些网站外链。但是自从搜索引擎的算法升级之后,外链给予网站的权重基本上已经被搜索引擎框死了,也就是说无论你做多少的外链,最多也只能给你那么多的外链是有效的,超过搜索引擎所给予的范围就成了垃圾外链了。再者我们要知道自己的下一步因为网站内容都做不好,你做再多的别的优化内容都是无用功。所以我们想要做好网站的优化排名的话,所以在这个大的前提下,我们所要做的主要就是提高外链的质量而非数量,笔者这里推荐大家多做做高质量的友情链接。
最后我们要清楚自己做的是什么,接下来的步骤,应该也不难,都是需要站长们的细心。 对于我们这样子的站长来说,最重要的就是网站的流量了。网站有了流量才会有更高的权重,网站的权重又会影响到网站的排名。所以我们需要在这一方面也下点功夫。可以通过品牌推广或者其他推广方式来宣传我们的网站。当然笔者这里不建议一些新的站点做推广,因为一旦你的站点是最近才出现的,就会被一些别的老站点所采集过去,最终你的站点会被搜索引擎认为是抄袭的,你的站点也会被搜索引擎放进黑名单里面。 参考技术B
确定网站首页栏目页TKD的选取;
网站整体结构的搭建,以扁平状为好;
URL链接的规范化,如301、404、ULR简短层级少;
网站页面选用html静态;
文章内部结构的优化,常见的锚文本也就是内链的搭建;
nofollow的使用,主要针对首页,对于不重要的页面链接进行添加nofollow;
避免关键词的堆砌,主要是在页脚堆积了大量关键词;
相关的推荐,每一个页面根据关键进行一些相关的推荐,增加用户的粘性;
友情链接的交换,传递不同的蜘蛛进行抓取;
robots协议
最为重要的就是坚持不懈的心态,很多做不成功的就是没有一个耐枯燥的心,每天固定的优化,周而复始终究会成功。
1、关键词分析(也叫关键词定位)
这是进行SEO优化最重要的一环,关键词分析包括:关键词关注量分析、竞争对手分析、关键词与网站相关性分析、关键词布置、关键词排名预测。
2、网站架构分析
网站结构符合搜索引擎的爬虫喜好则有利于SEO优化。网站架构分析包括:剔除网站架构不良设计、实现树状目录结构、网站导航与链接优化。
3、网站目录和页面优化
SEO不止是让网站首页在搜索引擎有好的排名,更重要的是让网站的每个页面都带来流量。
4、内容发布和链接布置
搜索引擎喜欢有规律的网站内容更新,所以合理安排网站内容发布日程是SEO优化的重要技巧之一。链接布置则把整个网站有机地串联起来,让搜索引擎明白每个网页的重要性和关键词,实时的参考是第一点的关键词布置。友情链接战役也是这个时候展开。
5、与搜索引擎对话
向各大搜索引擎登陆入口提交尚未收录站点。
网站优化
在搜索引擎看SEO的效果,通过site:站长们的域名,知道站点的收录和更新情况。通过domain:站长们的域名或者link:站长们的域名,知道站点的反向链接情况。更好的实现与搜索引擎对话,建议采用Google网站管理员工具。
6、建立网站地图SiteMap
根据自己的网站结构,制作网站地图,让站长们的网站对搜索引擎更加友好化。让搜索引擎能过SiteMap就可以访问整个站点上的所有网页和栏目。
最好有两套siteMap,一套方便客户快速查找站点信息(html格式),另一套方便搜索引擎得知网站的更新频率、更新时间、页面权重(xml格式)。所建立的sitemap要和站长们网站的实际情况相符合。
7、高质量的友情链接
建立高质量的友情链接,对于seo优化来说,可以提高网站PR值以及网站的更新率,都是非常关键性的问题。
8、网站流量分析
网站流量分析从SEO结果上指导下一步的SEO策略,同时对网站的用户体验优化也有指导意义。流量分析工具,建议采用分析工具Google Analytics分析工具和百度统计分析工具。 参考技术D
《百度搜索引擎优化指南2.0》
搜索引擎优化(Search engine optimization,简称SEO),指为了提升网页在搜索引擎自然搜索结果中(非商业性推广结果)的收录数量以及排序位置而做的优化行为,这一行为的目的,是为了从搜索引擎中获得更多的免费流量,以及更好的展现形象。而SEM(Search engine marketing,搜索引擎营销),则既包括了SEO,也包括了付费的商业推广优化。
详情点击以下链接查看
《百度搜索引擎优化指南2.0》
seo搜索引擎原理介绍,适合小白新手
搜索引擎
可能有些人还不了解什么是 SEO。所谓 SEO 指 Search Engine Optimization(搜索引擎优化)。通过对网站进行优化,来提高网站在搜索引擎中的排名,为网站带来更多的访问。
在介绍 SEO 优化要素及技巧之前,我们需要先对搜索引擎的工作原理有个了解。才能更好的理解 SEO 具体操作的意义。
基本原理简介
搜索引擎过程非常复杂,我们这里只能以最简单的流程来介绍搜索引擎是怎么实现网页排名的。
搜索引擎的工作过程大体可以分为三个阶段:
爬行和抓取:搜索引擎通过跟踪链接访问网页、获得页面 HTML 代码并存入数据库。
预处理:索引程序对抓取来的页面数据进行文字提取、中文分词、索引等处理,以备排名程序调用。
排名:用户输入关键词后,排名程序调用索引数据库,计算相关性,然后按照一个的格式生成搜索结果页面。
第一步:爬行和抓取
爬行和抓取是搜索引擎工作的第一步,完成数据收集的任务。
spider
搜索引擎用来爬行和抓取页面的程序叫做也就是我们熟知的蜘蛛(spider),也称为机器人(bot)。spider访问网站页面类似于普通用户使用的浏览器。spider 发出页面访问请求后,服务器返回 HTML 代码,spider 把收到的程序存入原始页面数据库。为了提高爬行和抓取速度,搜索引擎通常或多个spider并行爬行。
spider 访问任何一个网站时,都会先访问该网站根目录下的 rotbots.txt 文件。该文件可以告诉 spider 哪些文件或目录可以抓取或者禁止抓取。
和不同的浏览器 UA 不同一样,不同厂商的 spider 也带有特定代理的名称。
跟踪链接
为了抓取网上尽可能多的页面,spider 会跟踪网页上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行一样。
爬行遍历有两种策略:
深度优先:spider 沿着页面的链接一直爬取,直到该页面没有其他链接为止
广度优先:spider 在一个页面发现多个链接,先把这页面的所有第一层链接都遍历完,再继续第二层链接遍历
程序猿肯定对这两个遍历算法很熟悉啦。
理论上无论是深度优先还是广度优先,只要给 spider 足够的时间,总是能把互联网上所有的页面链接都爬取完。但实际情况并不是这样,由于各种资源的限制,搜索引擎也只是爬行和收录互联网的一部分。
所以通常 spider 都是深度优先和广度优先混合使用。
吸引蜘蛛
通过上面的介绍可以知道,spider 不可能将所有的页面都收录,因此 SEO 就是要通过各种手段,吸引 spider 爬行收录自己网站更多的页面。既然不能所有页面都收录,那么 spider 肯定是尽量抓取重要页面。那么 spider 是如何判断哪些页面重要?有几个影响因素:
网站和页面权重。质量高,资格老的网站权重高。
页面更新度。更新频率高的网站权重高。
导入的链接。无论是外部链接还是内部链接,要被 spider 抓取,就必须要有导入链接进入页面。高质量的导入链接也经常使页面上的导出链接被爬行深度增加。
与首页的点击距离。一般来说,网站最高的权重就是首页,大部分外链都是指向首页,spider 访问最频繁的也是首页。所以离首页越近的页面,权重也相对更高,被 spider 爬行的机会也越大。
地址库
人工录入的种子网站
站长通过搜索引擎网页提交网址(一般个人博客或网站都采用这种方式)
文件存储
spider 抓取的数据存入原始页面数据库。其中的页面数据与用户浏览器得到的 HTML 是完全一样。
爬行时的复制内容检测
检测并删除复制内容是在预处理的步骤处理掉。不过 spider 在爬行的时候也会进行一定程度的复制内容检测。权重低,而大量抄袭复制内容的网站,spider 可能就不再继续爬行了。这也是为什么说一个网站需要原创内容的原因。
第二步:预处理
预处理有时候也称为索引。因为索引是预处理中最主要的步骤。预处理有几个步骤:
提取文字。搜索引擎会提取页面的可见文字以及特殊的包含文字信息的代码,如 Meta 标签、图片Alt属性、超链接锚文字等。
分词,不同的语言有不同的分词如中文分词,英文分词。对第一步提取的文字进行分词。不同的搜索引擎使用的分词算法不同,会有差异。
去停止词。无论中文还是英文,都会有一些频率高,对内容没有影响的词。如语气词、感叹词,介词、副词等。搜索引擎会在索引页面之前去除这些词。
消除噪声。绝大部分页面还有一部分内容对页面主题也没有贡献。比如版权声明文字,导航条等。以博客为例,每个页面几乎都会有的文章分类,历史导航等信息,都是与页面主题无关的。这些都是属于噪音,需要消除掉。
去重。同一篇文章经常会重复出现在不同的网站及同一个网站的不同网址,搜索引擎并不喜欢这种重复的内容,所以搜索引擎会对这部分内容进行去重。
正向索引。也称索引。经过前面文字提取、分词、消噪、去重后,搜索引擎得到的就是独特的,能反映页面主体内容,以词为单位的内容。接下来搜索引擎索引程序就可以提取关键词,按照分词程序划分好的词,把页面转换为一个关键词组成的集合,同时记录每一个关键词在页面上的出现频率、出现次数、格式、位置。然后把这些页面及关键词形成的结构存储进索引库。
倒排索引。正向索引还不能直接用于关键词排名。搜索引擎还需要把正向索引数据库重新构造为倒排索引,把文件对应到关键词的映射转换为关键词到文件映射。这样在搜索关键词的时候,排序程序就在倒排索引中定位到这个关键词,就可以马上找出这个关键词所有的文件。
链接关系计算。链接关系计算也是预处理重要的一部分。搜索引擎在抓取页面内容后,必须事前计算出:页面上有哪些链接指向哪些其他页面,每个页面都有哪些导入链接,链接使用了什么锚文字。这些复杂的链接指向关系形成了网站和页面的链接权重。Google PR 值就是这种链接关系的最主要体现之一。其他搜索引擎也都进行类似技术,虽然并不称为 PR。
特殊文件计算。除了 HTML 文件之外,搜索引擎还能爬取抓取和索引以文字为基础的多种文件类型,如 PDF,Word,PPT,TXT等。
第三步:排名
到了这一步就是处理用户输入,然后根据用户输入的关键词,排名程序调用索引程序,计算排名,显示给用户。
这个过程也分为下面几个步骤:
搜索词处理
对用户输入的关键词进行分词、去停止词、指令处理等处理。
文件匹配
根据关键词找出所有匹配关键字的文件。
初始子集选择
由于文件匹配阶段出来的文件数量巨大,不可能全部显示。因此需要根据页面权重计算出一个子集。
相关性计算
选完子集后,就需要对子集中的页面进行相关性介绍。计算相关性是排名过程最重要的一步。
排名过滤及调整
经过上面的步骤之后,已经得到大体的排名。之后搜索引擎可能还会有一些过滤算法,对排序进行轻微调整,其中最重要的过滤就是施加惩罚。一些有作弊的页面会被降低权重。
排名显示
所有排名确定后,排名程序就调用原始页面的标题、Description Meta 等信息显示在页面上。
搜索缓存
用户搜索很大一部分是有重复的。所以有一部分的搜索是会被缓存下来的。
查询及点击日志
通过上面的三个步骤,你就能对搜索引擎的工作原理有了更深的理解。
以上是关于如何优化网站搜索引擎?具体操作和流程?的主要内容,如果未能解决你的问题,请参考以下文章