标签归档:内容采集

火车头采集工具特色功能与设置规则一览

最近一直圈在采集工具里面无法自拔,思路越来越感觉清晰,又感觉越来越混乱,思绪繁多,准备研究完火车头采集工具的采集规则和设置过程后,就跳出采集这个坑来。采集其实只是为了内容建设做服务而已,关键的还是得看整体的思路,以及这个工具对于这个思路中的某个手段的促进作用。

这是题外话,早几日专门找了个机会去调戏了下火车头采集工具的客服mm,咨询了许久,才对其有了更明确的了解,对于功能和是否满足我的需求有了明确的定义。下面分享下火车头特色功能(不做详细分析了,想了解网站数据采集工具功能特色的朋友可以看我上一篇文章):

火车头特色功能:

1、兼容多种开发语言与数据库,包含php、asp;Access、MySql、MS SqlServer数据库等;

2、能自主设定多种采集规则,针对不同页面不同内容设定不同采集规则;

3、能采集多种网页内容,文字、图片、flash、论坛附件、软件站资源可以一网打尽。

4、能过滤多种特定字符标签,包含超链接、敏感词汇等等;

5、自带下载工具,可将批量高效的采集数据下载,效率比专业的批量下载软件更快;

6、系统自带的模块文件支持:风讯文章,动易文章,动网论坛,PHPWIND论坛,Discuz论坛,phpcms文章,phparticle文章,LeadBBS论坛,魔力论坛,Dedecms文章,Xydw文章,惊云文章等的模块文件。

7、假如设定好要发布的模块,可以自动发布数据,前台展示。

8、可针对网站的特定内容进行采集,刨除不相干内容;

9、能将同类型内容进行采集合并,展现在同一个数据表中;

10、自带伪原创工具,自动替换词组,提高编辑效率………………..

火车头采集工具内容采集设置规则:

1)运行火车头工具

2)点击任务列表,新建任务,填写任务名,网站编码选择自动获取就行。

3)添加起始网址

填写“第一步:采集网址规则”先填写起始网址,通常为目标站首页地址。点击“添加”。

这里会按照网站的树形结构逐级获取下一级结构的网址,直至获取到内容页的网址。然后依次点击“添加” ->“完成”。

4)编写“多级网址获取”规则

这里需要先在起始地址页面找到所有需要采集的栏目页的代码区域,先查看起始页地址的源码,找到如图所示代码区域:

5)添加网址采集规则

点击右侧“添加”按钮打开“添加多级网址采集规则”,选择“从页面自动分析得到地址链接”单选按钮,在下面“从该选定区域中提取网址”,“从”(左侧)文本框填上栏目地址代码区域开始之前的标志性代码(要保证其在该页的唯一性),“到”右侧文本框填上栏目地址代码区域结束之后的标志性代码,在“结果网址过滤”的“必须包含”和“不得包含”文本框填上相应代码,如果该区域没有多余的链接不需要过滤,可以不填,这里的栏目页网址必须包含“category-”。然后点击“保存”返回。

6)获取内容页面地址

先打开栏目页查看源码,查找内容页地址存在的区域及地址规律。按照上一步的方法先填写内容页所在区域的起始和结束标志性代码,然后分析这个区域中包含的链接与我们说需要的内容页地址链接规律,添加过滤代码。这里起始代码为“<!–显示–>”,结束代码为“<div class=”page” style=”float:right”>”过滤代码为必须包含“read-”不得包含“#”。

7)获取网页标题采集

先打开内容页以及内容页的源码,找到需要提取的信息的前后代码特征。以提取标题和内容为例。首先复制文章标题,然后在源码中查看该标题出现的几处地方,找一处前后代码在每一篇文章都一样的地方,该例共出现了3处,第二处的代码没有其他干扰代码。点击“添加”,标签名填“标题”,提取数据方式选择前后截取,前后代码分别为“<h1 class=”ContentTitle”><strong>”和“</strong></h1>”。如果采集的内容需要作进一步处理(如替换删除编码转换过滤html等),在下方“数据处理”点击添加填写相应规则。

8)获取内容

再添加一个标签,标签名为“内容”,按照上述方法填写内容的前后代码片段,需要注意的是,前后代码片段最好不要出现不完整的标签(如:“<div class=”Content-body”” 应该写作“<div class=”Content-body”>”,一个完整的标签应该是以“<”开始,以“>”结束,如果<>之间的内容在各个内容页有一部分不一样,将不一样的部分用(*)代替即可),否则提取的内容会包含部分不完整的标签。通常正文包含的HTML会比较多,可以添加HTML过滤功能,建议仅保留段落(p)、图片(img)、换行(br)等标签。

9)开始采集
选择要采集的任务规则,勾选“采网址”和“采内容”复选框,点击工具栏“开始”按钮。

10)后续工作
采集到的数据保存在数据库,可以通过在任务名上点右键,选择“打开DATA下任务文件夹”打开数据库所在位置,该数据库可以通过ACCESS打开和编辑。如果想要重新采集,需要通过右键选择“清空该任务网址库”和“清空任务所有采集数据”。

 

网站数据采集工具原理与功能分析

很久没有再接触火车头了,甚至织梦自带的采集工具,也已经很久没用,最近因为工作的原因,开始筹划网站内容的数据采集,因此,开始重新了解当下的网站数据采集系统工具,并计划为大家做一个详细点的学习总结和分析,希望一些不是很了解数据采集工具的童鞋能通过此分享有一些自己的领悟。

huochetou

火车头采集是当下最流行的采集工具

什么是网站数据采集工具?

我们知道网站数据采集工具是根据某些特定的规则,采集某些特定网站内容的源码程序或应用。简单而言,就是将别人网站的内容复制到自己的网站上来的自动处理工具。

常规的数据采集,又称数据获取,是利用一种装置,从系统外部采集数据并输入到系统内部的一个接口。数据采集技术广泛应用在各个领域。比如摄像头,麦克风,都是数据采集工具。

被采集数据是已被转换为电讯号的各种物理量,如温度、水位、风速、压力等,可以是模拟量,也可以是数字量。采集一般是采样方式,即隔一定时间(称采样周期)对同一点数据重复采集。数据采集含义很广,包括对面状连续物理量的采集。在计算机辅助制图、测图、设计中,对图形或图像数字化过程也可称为数据采集,此时被采集的是几何量(或包括物理量,如灰度)数据。

数据采集工具的原理其实就是将常规的数据采集方法进行了拓展,我们传统意义上的任何信息的网络化传输,就必然涉及到了数据的采集,但网站数据采集是指针对某特定网站或者某特定行为的内容采集。他获取信息的来源于网络,也又应用于网络,是对现实数据采集的某个应用。

网站数据采集工具的流程是什么?

我们先看看百度蜘蛛索引数据的流程:

bd640

上图算是百度蜘蛛发现一个页面开始索引的全部过程,其中,在开始索引之前,依照百度蜘蛛爬行的广度与深度原则,百度会将某个入口页面上的链接优先提取,存入待爬行库,然后再开始索引流程,同时,假如某页面已经存在索引,一般来说,蜘蛛会优先爬行数据库中不存在的页面。(百度了下这类的资料都不够鲜明,特别是流程这块,建议大家还是去看看seo实战秘籍等专业性书籍.).

其实采集工具的原理也是类似于百度蜘蛛的爬行抓取机制,只是相对而言,百度指数的抓取索引机制更深更复杂,也更智能。采集工具的流程其实很简单:抵达网站——索引链接——爬行抓取——比对数据库——筛选内容——提取字符——去除冗余——加入数据库——自动发布或待审核——再次索引抓取

网站采集工具的原理功能是什么?

1)根据采集规则采集目标内容

采集工具因为编写的源码程序不同,语言不同,获取方式有些不同,同时对信息的处理能力也有所不同。但他们都是通过访问被采集站点来提取被采集站点的相应特定信息。采集程序通过读取后台设定好的采集规则来确定应该以什么样的方式来访问被采集网站,并判断被采集网站中哪些地址是有效的,哪些内容是该收集的,如何提取有用的信息等等,这些都是由采集规则指定的。

2)根据采集地址确定采集范围

采集目标一般是某个特定的url,一般选择列表等聚合页。但聚合页其实有很多的无关内容,我们只想截取其中某一区域中的内容进行采集,怎么办呢?这就需要设置“网址范围”了,这里需要用到一定的采集机制,即识别列表中的各级页面,并决定从多少页采集到多少,也就是“列表起始字符串”和“列表结束字符串”。

“列表起始字符串”和“列表结束字符串”,顾名思义列表起始字符串就是你所需要的内容url从页面代码的哪个地方开始,列表结束字符串就是你所需要的内容页面到哪个地方结束。

3)针对目标页面的字符串开始与接触识别机制

在采集规则设定者设定采集规则之前,设定者必须对特定网站进行了解,查看网站使用的语言,各种内容标签与页面布局,分析源代码,直指目标。

设定者了解起始字符串标准后,在页面html代码中,所需字符串内容之前有且仅有一次出现字符(如多次出现,以第一次出现的位置为准);在读取结束字符串标准时,接触字符串之后有且仅有一次出现(如多次出现,以第一次出现的位置为准)。起始字符串和结束字符串是成对出现的,采集器会截取他们之间的内容作为有效内容;

假如我们需要采集某个内容页面的正文,一般来说,我们需要采集网站内容页面的内容标题与正文内容,这个就需要对各种字符串进行筛选,只采集设定好的字符串内容。

4)针对url避免重复机制

在2中我们看到采集程序确定了采集范围,也就是从列表页面中提取各种url,采集程序优先提取网页中的各种url后写入数据库,并将在未来做好每个页面一次的抓取,直至页面采集的完成。我们发现,同一个内容假如存在多个url,采集程序一般都会将这个内容进行多次采集。对于采集工具而言,每一个内容页面url就是一个全新的页面。

5)采集后遵循设定规则的存档

数据采集完毕,必然有一个提取的过程,排除字符外的代码,同时遵循规则,丢弃不需要的内容,处理一些敏感的词汇,信息再处理完毕后,系统会对数据进行存档,一般来说都是一个简单的待审核内容列表,审核完毕显示。但更负责的数据写入机制,将会对数据进行更智能化的处理,比如对应发布的频道,标签内容的匹配,发布时间的设定等等属性,简单而言,存档就是写入数据库的过程。采集工具可以使用系统的数据导出写入功能,利用系统内置标签,将采集到的数据对应表的字段导出到本地或者某服务器任何一款Access,MySql,MS SqlServer内。

6)自动化审核发布

设定发布规则,数据采集工具自带的发布系统会根据设定好的内容发布到对应的栏目,一般来说,自动发布存在一定的弊端,那就是对于内容的处理这块,可能没有人工审核后发布的规整,没有对内容的再处理提取过程,内容难免有点良莠不齐。

当然,对于自动采集工具的使用,大部分还是需要网站程序开发人员的配合,假如seo不懂的源码,建议还是老老实实写需求的好,专业的事情交给专业的人去做。本文纯粹是学习之后的总结,假如有不全面或者有错误的地方,欢迎朋友们指出,在深圳的seo朋友也欢迎约我面聊沟通,下期为大家分享火车头的功能简介和常规的采集规则设置规则,欢迎关注。

基于内容采集抓取处理机制的优化

关注我博客的朋友知道我之前写过一篇图库的内容采集建设方法,另外还有一个就是问答的建设方案,其中也是基于采集内容的再处理建设(未来将分享给大家),这里说到的采集,就牵扯到了内容的来源构建上。

我原本的计划是将各种不同的页面采集过来,然后进行处理,简单的流程是:

采集规则设定——标签库设定——采集内容标题——比对数据库——无数据则采集此问题——采集同页面某回答——搜索此问题——各页面随机抽取回答——归纳为一个问答页——审核或删除某回答——根据问题与答案词组匹配标签库自动生成标签——审核显示

这里有几个实现难题:

1)流程过于复杂,基于现有的采集程序,无法实现需求;

2)程序开发周期强大,复杂流程与数据库的处理,开发工作量和难度都不小;

3)基于长期优化维护的成本;

其实上面那个是我一个比较理想化的seo内容采集的流程,相对而言,任何采集程序都无法如此智能的进行采集,除非是开发出强大的诸如搜索引擎的索引机制,这是一个高专业的领域。

1440398234476

百度抓取原理和采集程序部分雷同

另外,其实我在当初的筹划中,有一个很理想化的状态,那就是采集大量的内容页面,生成大量的标签页面,来进行seo长尾词的排名实现与用户导航,但其实这里也很不现实(未来几天将和大家分享就标签页面这块建设的领悟,当然,有兴趣的朋友也可以看看我之前分享的:小说内容建设方法之标签聚合页面玩法),因为标签的排名作用已经弱化了,我们在搜索引擎中很少看到标签存在的影子。而且我们之前计划的是,建设150万左右的页面,标签页面占比10%,也就是需要采集130万左右的数据,这些数据需要配备大量的词汇,标签多达15万个,但我通过托词发现,15万个标签词的拓展,其实并没那么容易,大量工具产生的词汇,其实很多内容,并不适合拿来做标签,人工筛选又将带来大量的工作量。这是基于工作流程与实现逻辑而产生的问题。

那么问题来了,如此复杂的流程,既然不能实现,那应该怎么办?

这里要说下,当下有很多的采集程序,有实力的企业都会定制自己的内容采集与处理方案,但最流行的无疑就是利用火车头等常规采集工具了(将在后期和大家分享“数据采集工具的原理与现有采集工具的功能分析,敬请期待),大部分的采集工具都是基于目标源的采集,比如我采集某个页面的内容,自动去除某些无效元素,提取文本目标内容,大部分为文字和图片板块的采集,需要去除内外链。

火车头的采集也是基于此基础的升华,它也是基于目标网址的采集与筛选机制。

那么,基于此,我将上面的流程优化为:

采集规则设定——标签库设定——采集目标网址内容——比对数据库——已采集网址去除——确定采集——写入数据库——再次采集——同标题页面内容写入同数据库表——多问答形成——审核或删除某回答——根据问题与答案词组匹配自动生成标签——审核显示

这个流程还不算是最终版本,但相对程序来说已经简单不少,甚至火车头都能直接使用,无需二次开发,不过,具体还需我对火车头功能更熟悉后才能敲定,很多东西还是需要不断学习,最近感悟很深的是,在深圳的互联网环境下,以前错过了很多学习的机会,以至于现在要重新去拾起以前错过的成长机会,是幸运也是不幸。哆嗦完毕,只是希望将自己的这段成长经历分享给朋友们,未来大家一起见证奇迹的发生~!~。

小说内容建设方法之标签聚合页面玩法

我们总是在纠结内容建设,但是我们也发现很多的开源程序包含织梦/wordprss等程序都是自带标签功能,基本上只要好点的源码,在分类和标签板块都会比较成熟,我们往往把它当做聚合页面的一种玩法,但对于标签页面而言,其实并不是像我这个深圳seo顾问博客单纯的这么简单的导航作用(现有标签聚合页面获得排名的几率很小),下面我们看看标签页面的常规作用。

24233009

标签聚合页面的作用:

1)方便搜索引擎索引

我们知道以前的美丽说就是典型的例子,它在seo网站布局做了很多的改变,典型的是将标签聚合页面对于全站的索引作用放大了。

我们知道搜索引擎是顺着链接爬行的,聚合页面越多,搜索引擎索引具体页面的机会就越大。另外,聚合页面的使用,也是加强了内链的建设,利于整体seo的效果提升。

2)用户导航

由于导航位置的面积有限,所以很多时候一些相对不重要的栏目就无法展示,而更重要的是整个网站的结构不能太臃肿,总体的栏目也很有限,这种情况下,tag的出现就很好的弥补了这一情况。如我博客,现有的分类再多,可能也无法满足用户的筛选需求,因此,我特意加了一些标签,虽然是随意而加,但对用户的引导还是能起到一定作用的。其实标签的作用对于很多大平台而言,是一种互补。

3)长尾词排名

每一个小的tag标签其实都可以是一个小的栏目,或者小的专题。而且标签聚合页面比起文章详情页来说,更容易获得排名。

但是这里要说明的是,2014年,百度经过一定的算法调整后,特别弱化了标签的部分作用,标签想获得排名已经没有那么容易,但我们同时发现,百度对于标签页面的索引并不拒绝,因此,标签还是依旧可以用的一个功能。

基于以上的几点作用,我分析下标签聚合页面的几种类型:

1)导航型:

天极网、中关村在线、太平洋电脑很多都是在使用这种标签,他们的标签很简单,比如苹果手机、iphone6s,都是一些比较常见的简短词汇,而热门度也高,用户关注度不错,这类词能很好的弥补不足,又能调用做好用户导航。

当然,这类标签对于搜索引擎的友好度依旧存在,只是排名作用已经相当弱化。

2)长尾型:

还是有不少的网站在使用标签做长尾词的流量,并不是说在当下,标签页面就没有效果了。我们排除一些热门的词汇,做一些冷门的词时会发现,标签依然能获得不错的排名,因此,长尾类标签在当下依旧是很多站点在使用的标签类型。

其它其实就是这两种的集合,不分析了。

标签聚合页面的几种玩法:

1)后台层级管理

为了方便我们做好归类,我们会将标签如一二级分类一样最好归纳与管理,也便于前台的调用导航,在这里其实标签的作用基本等同于分类,玩法也一样。

比较有趣的是,标签是可以用户自主添加的,而分类一般都是写死的,这可能是最大的区别。

当然,标签的分类还利于标签的组合,比如我一级标签为手机,二级为苹果、小米,三级分类为价格、参数,利用系统,我能更方便的生成多种标签,如苹果手机价格、苹果手机参数类的具体标签(此标签隶属于一级手机,二级苹果下)。

这种一般可以通过文章内容进行自动标签的匹配,同时用户也可以自主编辑或选择标签内容,比较精准。

2)后台搜索生成

假如我内容多,而人力有限,那搜索生成是一个很快捷的方法,我可以直接在后头导入标签云数据,然后系统自动搜索并生成伪静态或者静态页面。这种匹配模式唯一的一点是,因为是通过关键词筛选匹配,所以不一定准确,而且直接作为分类导航,难以实现相关的层级关系。

3)前台搜索

很多网站直接将前台搜索页面做好伪静态,作为一个表情页面来显示,这也是很好的玩法,特别是用户搜索比较多的网站,可以直接将用户搜索的内容列表静态化,从而自动生成很多页面。唯一的缺点是,用户可能搜索的内容在网站上并没有,而假如这种词汇过多,反而会起到反作用。

关于优秀的聚合页面的一些建议:

1,通过人工标签聚合内容。

通过搜索聚合内容的方式虽然在生成速度上有一定优势,但是通常限于技术实力会出现很多缺点。而换成通过人工给文章进行加指定标签后将能很大程度上解决这一系列问题。也就是编辑在写文章的时候给这篇文章新建一个标签(或者通过搜索旧标签进行选择)。然后聚合页面全部调用经过人工加标签的内容页面。

2,相似标签进行合并。

例如有三个非常相似的长尾关键词需要做排名,那么其实我们并不需要同时建立三个标签,而只需要建立一个核心的标签。并通过修改标签的标题来同时覆盖多个关键词。另外编辑在给文章加标签的时候也建议可以

优先直接使用旧的标签,如果没有相关标签才新建。

3,标签内容按时间进行排序。

通过之前两步后聚合页面的内容相关性与页面重复问题将能得到有效解决,而我们要解决的第三个问题是聚合页面的更新问题。很多网站生成的聚合页面长年不会更新,这样百度快照通常会相对较慢,也不利于获得长久排名,因此可以直接在调用内容规则时按最新时间调用。这样编辑在一篇新文章上加了这个关键词标签,那么这个聚合页面会自动更新。

4,标签管理后台。

大多数网站为了省事都是直接将标签关键词导入数据库,这样做的好处是方便简单,但问题是无法进行管理与优化。因此可以针对标签关键词建立一个管理后台,这样可以及时对标签关键词进行修改,合并,删除等管理与优化。

5,聚合页面URL优化

解决了聚合页面内容问题后,我们需要进一步优化聚合页面的URL,很多网站的聚合页面都是直接使用动态URL,并且带有大量参数,这样的聚合页面不利于搜索引擎收录与获得排名,更好的方式是将这些URL地址进行伪静态处理。

在聚合页面URL优化方面很多分类信息网站做得比较好。例如58同城,在信息分类聚合页面URL优化上非常规范。

聚合页面的本质与网站栏目,分类,网站专题是相同的。目的是聚合某一话题或知识点的相关内容,让有兴趣的用户能够更方便的进行阅读。因此我们在进行聚合内容或专题制作的时候,切不可为了聚合而聚合,为了SEO而聚合。而是要从用户本身出发,在有利于用户体验的基础上进行聚合,这才是网站内容聚合之道!

当然,聚合页面的玩法很多,标签页面只是其中的一个玩法,其它包含具体内容页面以外的所有页面,我们都可以理解为聚合页,因此,还有分类、专题等多种页面都可以使用聚合的玩法进行,未来讲和大家分享这一块的进一步理解。

某社区图库栏目建设方案

图库的作用:图库的作用很明显,用于百度等图片搜索引擎的索引收录,并带来流量。曾经有个朋友的小设计师类型站点用几百张图片就来引来每日几百的ip,就是这个道理。当然,打了水印,无疑也是能用来做品牌建设的。同时,如花瓣类,则典型的还可以依靠图库的存在做本站的seo网站优化流量,本策划主要讲的就是基于seo而存在。
图库图片要求:
1)图片清晰
2)添加水印
3)每个图片具备alt属性和title属性,且尽量不重复
4)图片像素为大于200像素宽度为宜
图库建设方法:
1) 从官网和社区等全部站点中调用已有图片,假如图片没有alt,则将其所在内容页面的标题作为alt。
2) 图片做标签大集合,既自动根据图片alt属性赋予图片某个或某几个标签,同样标签的页面进行聚合。管理后台可对此图片标签进行再编辑。
3. 图片标签集合在某个标签云页面下,此页面集合所有图片标签。
4.图库的管理中,编辑人员可批量审核采集内容。
 图片的调用和上传方法:
1) 调用全站(官网与所有二级域名)的图片,图片alt属性为详情页相关文章标题
2) 后台批量上传机制,并可批量添加图片标题(显示在图片下方的文件名中,非图片title属性)和alt(参考qq空间相册)。
3) 图片标签
3.1  可根据图片alt直接生成相关标签,标签从已有标签云中匹配调用
3.2  后台管理员可批量管理图片标签,并进行添加或删除。
3.3  批量导入时,除alt与标题外,用户可给一张图片打上多个标签。
 标签云管理:
1)后台拥有标签管理功能,为一级管理模式 ,同支持批量导入。
2)假如在用户/管理员添加时,没有存在此标签,则自动添加到标签库中。
图库内容方向:
1)手机类,所有手机品牌logo,手机外观照片,手机测评照片,手机包装照片,手机参数照片等等;
2)应有类:所有手机应用或者游戏类app图片图标
3)平板类:所有平板品牌logo,平板外观照片,平板包装照片,平板参数照片等等;
4)电脑类:
5)智能家电类:
6)数码周边配件:
 图库评论系统:
根据图片alt搜索相关内容采集,后台自动累计该评价到评价系统,编辑审核则发布。采集网站内容参考:百度知道等;
图片采集规则:
(图片采集目标网站待整理,以后见图片采集表格)
1)自动采集所有图片内容,并保存到服务器图片库;
2)图片内容包含图片alt属性;(假如该图片无alt属性,则调用对应的文章标题为默认alt属性)。
 图片发布规则:图片默认打上社区水印图片默认添加标签图片需审核才可前台显示,可批量审核
评论采集系统:
(评论采集目标网站待整理,以后见评论采集表格)假如图片发布,则根据图片的标签去百度知道与各大手机论坛抓取评论,然后统一审核显示;
前台设计建议(以产品王萌旸方案为最终方案)
1)入口可在首页有个文字导航或者直接有个小区域展示图片,点击进入相关图片浏览。
2)页面构成(统一头部底部不在陈述范围)
2.1)标签汇总页面 (频道页)Url建议为:http://ler.com/tuku
2.1.1搜索框  提供相关搜索的推荐匹配;百度一下可以为:搜索图片
2.1.2 社区热帖推荐 推荐社区热门帖子,直接自动调用社区内容。
2.1.3 标签云
说明:标签汇总页面为以上内容,可点击更多,直接在此基础上再显示一屏幕。点击此标签,进入同标签聚合页面;
 2.2 标签列表页
Url建议为Url建议为:http://alr.com/tuku/标签id
 标签列表页为点击某个标签的内容列表,为上图下文结构。
添加面包屑:面包屑为:LER社区首页》图库》标签名
同时,假如图片过多,可进行分页显示。建议每一页图片显示3*8或4*6张显示。同时在分页下方添加:
热门推荐 与随机推荐 热门推荐:推荐热门帖子*5(需看后台热烈设置属性以及数目》?5)随机推荐:随机推荐社区帖子*5
2.3 图片内容页:
Url建议为:http://ler.com/xx/图片名 xx为随意内容(考虑图库文件夹路径,可再定)
2.3.1 图片显示图片标题显示在图片下方,并给与h1标签,图片同步alt属性。
 2.3.2 上一张 下一张既使用箭头开始上一张图片和下一张图片,点击箭头,url改变。
2.3.3 相似图片推荐
2.3.4 评论系统 (非js)参考社区或官网内容评价系统
 2.3.5 显示图片标签,并可点击进入相关标签内容列表
2.3.6 社区随机内容推荐*8 社区热帖推荐 *8
2.3.7 热门测评视频推荐
2.3.8 标签推荐随机调用标签云中部分标签进行标签推荐。