精华内容
下载资源
问答
  • 最近发现阿里云虚拟主机后台面板给出的301重定向功能,只能设置首页的重定向,而不是实现全站的301重定向。 那么虚拟主机如何实现全站的301重定向呢? 步骤如下: 我们新建一个.htaccess文件,把以下代码复制....

    最近发现阿里云虚拟主机后台面板给出的301重定向功能,只能设置首页的重定向,而不是实现全站的301重定向。

    那么虚拟主机如何实现全站的301重定向呢?

    步骤如下:

    我们新建一个.htaccess文件,把以下代码复制在.htaccess文件中,上传网站根目录即可

    RewriteEngine On

    RewriteCond %{HTTP_HOST} ^abc.com$ [NC]

    RewriteRule ^(.*)$ http://www.abc.com/$1 [R=301,L]

    可以用电脑新建记事本输入后,保存文件为.htaccess
    在这里插入图片描述

    注意:把abc.com修改为你自己的域名

    接着,记得把虚拟主机后台面板里把301重定向设置删除。避免产生冲突。

    原文地址:https://leffz.com/1709.html

    展开全文
  • 最近发现阿里云虚拟主机后台面板给出的301重定向功能,只能设置首页的重定向,而不是实现全站的301重定向。 那么虚拟主机如何实现全站的301重定向呢? 步骤如下: 我们新建一个.htaccess文件,把以下代码复制....

    最近发现阿里云虚拟主机后台面板给出的301重定向功能,只能设置首页的重定向,而不是实现全站的301重定向。

    那么虚拟主机如何实现全站的301重定向呢?

    步骤如下:

    我们新建一个.htaccess文件,把以下代码复制在.htaccess文件中,上传网站根目录即可

    <IfModule mod_rewrite.c>
    
    RewriteEngine On
    
    RewriteCond %{HTTP_HOST} ^abc.com$ [NC]
    
    RewriteRule ^(.*)$ http://www.abc.com/$1 [R=301,L]
    
    </IfModule>


    可以用电脑新建记事本输入后,保存文件为.htaccess

    阿里云虚拟主机怎么做全站301重定向跳转,jpg

    注意:把abc.com修改为你自己的域名

    接着,记得把虚拟主机后台面板里把301重定向设置删除。避免产生冲突。更多关于云虚拟主机的使用问题参见文档帮助

    展开全文
  • 一些工程类的全站仪数据里面我们可以用到CAD坐标的,这需要自己。下面是学习啦小编带来关于CAD如何将坐标全站仪数据的内容,希望可以让大家有所收获!CAD将坐标全站仪数据的方法首先要检查提取出来的坐标...

    在一些工程类的全站仪数据里面我们可以用到CAD坐标的,这需要自己做。下面是学习啦小编带来关于CAD如何将坐标做成全站仪数据的内容,希望可以让大家有所收获!

    CAD将坐标做成全站仪数据的方法

    首先要检查提取出来的坐标和图纸里面标注的坐标是不是一样,如图1(白色背景)红色框内和图2(黑色背景)红色框内的坐标数据的对比,图1内的X和Y数据和图2的数据不一样的地方就是小数点,必须先把图1的数据除以1000倍。

    我们先在电脑桌面上新建一个Excel文档,并打开。弹出窗口点击成---所有文件,找到你要打开的文本文档再点击打开-见图内红框。

    点击下一步,在逗号钱打上勾,再点下一步。

    点击完成。

    再在图中红色框内点击插入工作表。

    在表格的第一行第一列内打上=(等于)符号后,再点击下方红色框内,把鼠标点击到第一行第一列,然后回车。

    返回到新工作表内,鼠标点第一行第二列打上=(等于)符号,再点击下方红色框内,此时鼠标点击到第一行第二列后打上/(除以)符号后面输入1000,回车。

    返回到新工作表内,鼠标点第一行第三列打上=(等于)符号,再点击下方红色框内,此时鼠标点击到第一行第三列后打上/(除以)符号后面输入1000,回车。返回到新工作表内,鼠标点第一行第四列打上0这个数字,这个0是代表高程,不输入0字将无法传输数据。

    现在把鼠标放在第一行第一列的右下角,直到出现小十字后点击鼠标左键不动往下拉,拉倒有0字出现,把0字删除。第二列、第三列、第四列的步骤和第一列的方法一样。

    鼠标全选第二列、第三列、第四列的数据,点击鼠标左键选择单元格格式,选择数字分类-数值,小数数字调成3位,点确定。

    点击左上角另存为,弹出窗口,点击桌面,选择保存类型为- CSV(逗号分隔),再点保存-是-是。现在就全部完成,最后的就是把做出来的 CSV格式的数据导入到拓普康全站仪里面就可以放线,不用自己一个一个把坐标数据输进全站仪里面放线,省好多事、时间。

    看了“CAD如何将坐标做成全站仪数据”的人还看了:

    展开全文
  • [DotnetSpider 系列目录]...很多同学加群都问, 如何使用DotnetSpider做全站采集呢? 其实很简单, 只要你们想通爬虫的整个逻辑就能明白了。简而言之,步骤如下: 1. 使用指定URL下载HTML 2. 分析, 保存HTML数据 3...

    [DotnetSpider 系列目录]

    如何做全站采集?

    很多同学加群都在问, 如何使用DotnetSpider做全站采集呢? 其实很简单, 只要你们想通爬虫的整个逻辑就能明白了。简而言之,步骤如下:

    1. 使用指定URL下载HTML

    2. 分析, 保存HTML数据

    3. 从HTML中分析出符合规则的新的URL, 并用新URL重复 1,2,3步骤, 直到再也无法发现新的URL

    逻辑是简单的, 但其中涉及到的细节不少,如多线程、URL去重、遍历深度等, 但是不用担心, 这些也正是框架应该去做的事情, 大家只需要关注业务逻辑就好。

     

    下载代码

    https://github.com/zlzforever/DotnetSpider

    请下载代码后, 找到DotnetSpider.Sample里的BaseUsage.cs中的CrawlerPagesTraversal方法

    复制代码
            public static void CrawlerPagesTraversal()
            {
                // Config encoding, header, cookie, proxy etc... 定义采集的 Site 对象, 设置 Header、Cookie、代理等
                var site = new Site { EncodingName = "UTF-8", RemoveOutboundLinks = true };
    
                // Set start/seed url
                site.AddStartUrl("http://www.cnblogs.com/");
    
                Spider spider = Spider.Create(site,
                    // crawler identity
                    "cnblogs_" + DateTime.Now.ToString("yyyyMMddhhmmss"),
                    // use memoery queue scheduler
                    new QueueDuplicateRemovedScheduler(),
                    // default page processor will save whole html, and extract urls to target urls via regex
                    new DefaultPageProcessor("cnblogs\\.com"))
                    // save crawler result to file in the folder: \{running directory}\data\{crawler identity}\{guid}.dsd
                    .AddPipeline(new FilePipeline())
                    // dowload html by http client
                    .SetDownloader(new HttpClientDownloader())
                    // 4 threads 4线程
                    .SetThreadNum(4);
    
                // traversal deep 遍历深度
                spider.Deep = 3;
    
                // stop crawler if it can't get url from the scheduler after 30000 ms 当爬虫连续30秒无法从调度中心取得需要采集的链接时结束.
                spider.EmptySleepTime = 30000;
    
                // start crawler 启动爬虫
                spider.Run();
            }
    复制代码

     

    设置站点对象

    Site对象是用来设置对采集对象统一使用的配置, 如Encoding, Cookie, Proxy, 页面是否压缩等等, 一般大家可以直接使用默认值就可以了, 除非发现数据采集异常, 再去尝试修正

    起始链接

    采集一个站点, 当然需要一个入口,这个入口一般可以是网站首页。当然如果你们要从某个类别等进入,甚至是多个入口都是可以的。调用AddStartUrl添加就可以了

                site.AddStartUrl("http://www.cnblogs.com/");

    创建爬虫

    复制代码
                Spider spider = Spider.Create(site,
                    // crawler identity
                    "cnblogs_" + DateTime.Now.ToString("yyyyMMddhhmmss"),
                    // use memoery queue scheduler
                    new QueueDuplicateRemovedScheduler(),
                    // default page processor will save whole html, and extract urls to target urls via regex
                    new DefaultPageProcessor("cnblogs\\.com"))
                    // save crawler result to file in the folder: \{running directory}\data\{crawler identity}\{guid}.dsd
                    .AddPipeline(new FilePipeline())
                    // dowload html by http client
                    .SetDownloader(new HttpClientDownloader())
                    // 4 threads 4线程
                    .SetThreadNum(4);
    复制代码

    如上代码, 调用静态方法Spider.Create(有多个重载), 给的参数是站点对象、采集任务标识、调度队列(如果引用了DotnetSpider.Extension可以使用Redis做队列实现分布式采集)

    DefaultPageProcessor: 构造参数是一个正则表达式, 用此正则来筛选需要采集的URL

    FilePipeline: 默认实现的文件存储HTML信息, 大家可以自行实现IPipeline传入

    HttpClientDownloader: 默认实现的Http下载器, 仅用于下载HTML

     

    设置遍历深度及结束条件

                // traversal deep 遍历深度
                spider.Deep = 3;
    
                // stop crawler if it can't get url from the scheduler after 30000 ms 当爬虫连续30秒无法从调度中心取得需要采集的链接时结束.
                spider.EmptySleepTime = 30000;

     

    EmptySleepTime是指当爬虫多久发现不了新的URL时就结束。

     

    运行结果

     

    转载于:https://www.cnblogs.com/jjg0519/p/6707553.html

    展开全文
  • Sphinx做全站搜索你会了木有?

    万次阅读 2014-03-24 17:21:59
    本文主要介绍Sphinx的入门使用,新手观看,老鸟指正! * 1、简介 * 1.1.Sphinx是什么 ...* 2.1 GNU/Linux/unix系统上安装 o 2.1.1 sphinx安装 o 2.1.2.sfc安装(见另文) o 2.1.3.coreseek安装(见另文)
  • 我和大家说说一般流程吧,首先你在做站前要规划清楚你这个的目的是什么,预算是多少,整体的思路是什么,然后再进行下一步操作。接下来说说具体流程。 1.域名注册,这个到各大云服务商那去查询和注册就可以了,...
  • SpringBoot入门建站全系列(三十六)AspectJAOP日志管理 一、概述 Spring的两大特性,AOP和IOC,AOP面向切面编程,可以对当前代码无侵入的情况下,使用AspectJ对切点数据进行分析存储。常常被用来日志/流水的...
  • 文中就免棱镜全站仪和RTK技术城市测量中的协同应用了简要的分析。免棱镜全站仪和RTK技术城市测量过程中有很多优秀的方面,很大程度上降低了作业强度;提高了工作效率;缩短了工作周期;克服了传统测量方法的一些...
  • 文中根据济宁市某煤矿立井联系测量数据,介绍了全站立井联系测量导入高程中的应用情况,阐述了全站仪三角高程法导入高程的原理和操作过程,并对其了精度分析,证明了该方法的可行性。实践表明,这种方法能快速解决...
  • SpringBoot入门建站全系列(二十八)整合Kafka日志监控 一、概述 Apache Kafka是一个分布式发布 - 订阅消息系统和一个强大的队列,可以处理大量的数据,并使您能够将消息从一个端点传递到另一个端点。 Kafka适合...
  • SpringBoot入门建站全系列(二十七)WebSocket简单的聊天室 一、概述 WebSocket 是一种网络通信协议。RFC6455 定义了它的通信标准。 WebSocket 是 HTML5 开始提供的一种单个 TCP 连接上进行双工通讯的协议。 ...
  • SpringBoot入门建站全系列(三十四)使用Drools规则引擎排班系统 一、概述 OAuth 2.0 规范定义了一个授权(delegation)协议,对于使用Web的应用程序和API网络上传递授权决策非常有用。OAuth被用各钟各样的...
  • SpringBoot入门建站全系列(十九)集成Activiti工作流一、概述Activiti作为一个流行的开源工作流引擎,正在不断发展,其6.0版本以API形式提供服务,而之前版本基本都是要求我们的应用以JDK方式与其交互,只能将其...
  • 4199小游戏全站

    2019-10-18 01:17:55
    4199小游戏全站带7万多数据一键采集到本地(附游戏盒源代码),这是4199.cn的2010版本的全站程序和数据,sql2000+asp程序,带7万多个小游戏。调试步骤:1、进入后台设置基本信息、数据库bak.bak还原2、修改模板...
  • a)准备工作和建立内容你注册域名之前,你就应该记录下你的想法,应该准备足够100个网页的内容。请注意是至少。这100个网页应该是真正的内容,而不是链接页,关于我们页,联系我们或者版权声明等等杂七杂八的网页。...
  • SpringBoot入门建站全系列(二十七)WebSocket简单的聊天室一、概述WebSocket 是一种网络通信协议。RFC6455 定义了它的通信标准。 WebSocket 是 HTML5 开始提供的一种单个 TCP 连接上进行双工通讯的协议。...
  • SpringBoot入门建站全系列(二十八)整合Kafka日志监控一、概述Apache Kafka是一个分布式发布 - 订阅消息系统和一个强大的队列,可以处理大量的数据,并使您能够将消息从一个端点传递到另一个端点。 Kafka适合离线...
  • 全站替换https攻略

    千次阅读 2018-11-29 18:53:21
    由于现在全球开启https的网站越来越多,而且开启https成本也慢慢降低,所以网站为了适应趋势,需要https全站替换。 二、功能作用 开启全站https可以更好的提升网站谷歌中权重,由于https传输是加密的,...
  • 我们在做内容站的时候,经常需要使用到文章排行榜,但phpcms默认的pc调用标签是需要具体栏目ID的,那么如何调用全站文章的点击排行榜呢
  • 更换了网址,旧网址了301重定向,折腾有点大,于是百度站长平台提交网址,不管是主动推送还是手动提交,前提都是要整理网站的链接,手动添加太麻烦,效率低,于是就想写个脚本直接抓取全站链接并导出,本文就和...
  • SpringBoot入门建站全系列(三十五)整合Oauth2单机版认证授权一、概述OAuth 2.0 规范定义了一个授权(delegation)协议,对于使用Web的应用程序和API网络上传递授权决策非常有用。OAuth被用各钟各样的应用...
  • 全站https尝试

    2019-09-17 21:04:26
    由于ios强制要求所有连接由http升级为https,所以所有的后端服务都需要修改为https,以前没有过,想象中http替换成https就算有性能损耗,应该也不大,但实际用ab简单压了下,发觉http的qps大概400左右,https...
  • CDN加速全站配置教程

    千次阅读 2020-03-27 22:04:49
    昨天终于是全站配置了小站的cdn加速,今天洗澡的时候思索这个流程。总算是想明白整个配置过程每一个步骤到底是怎么导向运转的了 流程图 首先需要对自己要的事情有一个明确的目标,要如何实现cdn加速,不能见...
  • SpringBoot入门建站全系列(二十七)WebSocket简单的聊天室一、概述WebSocket 是一种网络通信协议。RFC6455 定义了它的通信标准。 WebSocket 是 HTML5 开始提供的一种单个 TCP 连接上进行双工通讯的协议。...
  • 背景链路跟踪,我们有很多可选项。常见的有 zipkin,pinpoint,skywalking,jaeger 等。基本上都是根据谷歌的《Dapper 大规模分布式系统的跟踪系统》这篇论文发展... Cat 中可以很方便的看到每个请求的总耗时以...
  • 树莓派是一台电脑,只不过它非常小巧,是基于 Linux 的单片机电脑,不贵~但是它的玩法很多,比如你可以里面使用 Python 编写游戏,搭建网站,邮件收发,HTTP 服务器,Git 服务器,种子资源下载器等等。...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,962
精华内容 784
关键字:

做全站在