梦织德德收藏方法教程
方法/步骤
1.首先我们打开织梦后台,点击。
收购& mdash& mdash采购管理& mdash& mdash添加新节点
2.这里以收藏普通物品为例。我们选择普通的文章,然后确定
3.我们进入采集的设置页面,填写节点名称,也就是给这个新节点起一个名字。你可以在这里随意填写。
然后打开想要收藏的文章列表页面,打开链接页面,右键& mdash& mdash查看源文件
找到目标页面代码,就在charset后面。
4.页面的基本信息一般会被忽略。填好之后请参考图。
5.现在让我们填写列表URL来获取规则。
看文章列表第一页地址jianzhinde/list _ 49 _ 1 . html 49 _ 1.html。
比较第二页的地址jianzhinde/list _ 49 _ 2 . html。
我们发现除了49_,后面的数字都一样,所以可以这样写。
/jianzhinde/list _ 49 _(*)。超文本标记语言
就是把1改成(*)
因为这里只有两页,我们就从1到2来填。
增量当然是每页1,2-1…等于1?
我们到此为止。
6.可能大家收藏的一些列表没有规则,你要手动指定列表网址,如图。
7.每行写一页地址。
规则列表写好之后,我们就开始写文章URL匹配规则。返回文章列表页面。
右键单击查看源文件
找到区域开头的HTML,也就是找到文章列表开头的标志。
8.我们很容易就找到了,如图所示& 新闻列表
。从这里开始,后面是文章列表。
让我们在文章列表的末尾找到HTML。
9.就是它,一个容易找到的标志。
如果链接包含图片:
没有治疗
收集缩略图。
在这里根据自己的需求来选择。
重新过滤区域URL:
(使用正则表达式)
必须包含:
(优先级高于后者)
不能包含:
当我们打开源文件时,我们可以清楚地看到文章链接全部以。超文本标记语言
所以,我们填进去。html后面必须包含。
如果你对一些列表有困难,你也可以填写那些不能包含的列表。
8.我们点击保存设置进入下一步,可以看到我们得到的文章的网址。
看到这些就对了。让我们保存信息,然后进入下一步,设置内容字段获取规则。
看看文章有没有分页。随便进一篇文章看看。。我们看到这里的文章没有分页。
所以我们在这里默认。
9.先找找文章标题之类的。
输入任意文章并右键单击以查看源文件。
看看这些。
10.根据源代码填写。
1.让我们把文章的开头和结尾填上。
如上,找到开始和结束标志。
12.开始:
12.结束:
13.在过滤规则里把你想过滤的写在文章里,比如过滤文章里的图片。
选择通用规则。
14.再次检查IMG,然后确认
15.这样,我们就过滤了文本中的图片。
设置完成后,点击保存设置并预览。
这样的收款规则是这样写的。很简单。有些网站很难写,但是需要更多的努力。
16.我们单击保存并开始收集& mdash& mdash开始收集网页。
收集工作将在一分钟内完成。
来看看我们收集的文章吧。
18.好像成功了。让我们导出数据。
如何学习SEO?
SEO需要的技术真的太多了。没接触过和接触过和提升过。所知道的技术真的天差地别。
首先说一下基础的SEO知识把。
入门级SEO需要掌握知识及技术:html css DIV 各种CMS 的运用及修改发现很多SEO连入门级需要的技术知识都掌握不全。
说下技术包含应用场景 HTML这个是应用较多和频繁的。最基本的 TDK meta元标记 og属性 link标签>>注释 A标签 alt标签 H标签 strong标签 nofollow这些都是html技术的支撑里面Css 这个和html是一个包含关系。 比如前提到 H标签 strong 等Css用于定义样式文件 所有样式有关的 比如字体样式 颜色 加粗 H标签定义标题大小的。
很多大概讲的话这些就是和SEO相关的。DIV 这是网站布局里面块 的应用。主要是html里面布局的部分。
CMS运用 这个是重点了。 大部分的SEO 优化的站点使用的是开源的CMS 这里面企业站的话 以织梦和帝国为最。当然还有其他的但是最多的是这二类。这些CMS有很多功能是对于SEO很有好处。看你自己怎么用。能否熟练使用。
进阶级SEO需要掌握知识及技术:数据分析技术 CMS功能开发 JS python定制功能 正则 采集和爬虫数据分析;基本数据分析利用比如EXC表格CMS功能开发 需要 PHP 语言的熟悉 织梦和帝国都是PHP的。如增加文章发布后自动主动推送给百度熊掌号。
可以在网上找到源码你还是的修改和利用。 这里有人会说找程序员,交给程序员解决。没错如果公司有程序员是可以交个他们解决。但是如果我们知道这方面的知识在沟通和写需求的时候描述是否效率会提升包括沟通成本。而不是一点程序思维都没有瞎JB提需求。
JS :基本的了解和应用就可以了。 比如跳转 如何用JS 作出302跳转效果 PC端跳转移动端 代码跳转适配 这里面水很深。黑帽很多东西在JS里面都能找到亮点的特色。404跳转 判断来访跳转。 发现这里面举例跳转比较多。
因为缺少在Seo实战中这个JS效果用的比较多。 而跳转有很多种。打个比方写一个最简单JS跳转效果。当网站页面被克隆时 如何挽回流量?
分析:克隆页面 那么就会包含页面所有的元素 如果我写一个JS 用来判断当前页面url 是否为自己本身的url 实现跳转是否就能把这一部分流量搞回来? 这个代码我就不放放出来了网上很多也很简单。
判断当前url是否包含”XXX” 不包含就跳到’XXX’ 如果克隆者并没有过滤掉JS的话。 那么当用户访问克隆页面触发了JS 就会跳转到被克隆的页面 这是不是流量就回来了。
PYthon定制功能 这个就很大了。 比如一些日常的SEO 操作查排名 查收录 查导出url 分析爬虫日志推送不收录url 到百度 等等。。很多具体根据需求。所以作为一个进阶SEO 你需要掌握python 正则 这个应用场景就太多了。
移动适配规则提交 里面就用正则带适配url里面各层级的参数 同时python 里面识别很多都有正则 包括采集里面对于url 识别里面很多正则。采集和爬虫 这个包含正则截取 正则替换 scarpy 等。应用场景里面基本是大数据采集。
大神级SEO需要掌握知识及技术:数据分析模型建立与拓展 PYthon自动化 shell分析 产品模型与需求。
这个就能难说叻。毕竟我也是在学习和进步中。和接触到的大神了解来说发现了一些技术,肯定还有一些隐藏的属性和技能没了解到。数据分析 是一个大的东西。每个SEO大神对于SEO数据分析 都有自己模型和维度。同时在做数据分析的时候会涉及到很多技术。
比如python shell 等 甚至很多我也不了解的技术。python自动化 这个最近5118创始人李昊在最近分享中反复提到这个词。 李昊是技术出身,所以对于SEO 有着关于自动化、程序化、批量化执行执念。把一些SEO实战所需要的一些数���或者功能程序化自动化批量化。
shell 也是用来做数据分析,用来剥离数据分析数据中间可以结合python 用来获得需要的数据和效果。产品模型与需求 做SEO都到大神级别了那么对于做产品或者做一些提升流量需求的产品和需求时也是需要了解和应用的。到了这一步 我估计已经有一大批SEO 哭死在路上。因为可能他们做了好几年可能还是在入门级SEO徘徊。当你和更多大神级SEO交流时候你就会发现技术原理技术思维无处不在。越是学习的越多了解的越多,发现自己懂得越少进步的空间越大。
祝好!希望题主不要被我这一大堆关于SEO技术给弄懵逼。一步一步来,一步一个脚印。回头看看 自己的学习进步过程真的太有意义了。
欢迎大佬拍砖指正,欢迎新人交流讨论。欢迎同行和围观群众点赞、收藏、评论。