精华内容
下载资源
问答
  • 端口扫描 - nc - 全链接扫描

    千次阅读 2018-11-19 21:22:18
    0x00:简介 ...z 参数就是扫描模式,默认就是 tcp 全链接扫描。w 参数是设置超时时间。nc 使用全链接方式扫描端口命令格式如下:nc -nvz 1.1.1.1 1-100。 0x01:nc 全链接扫描端口 首先执行其命令...

    0x00:简介

    nc 在众多强大的功能中,也有端口扫描,主要的参数有以下几个:

    请输入图片描述

    其中 n 参数作用是跟 ip 地址,不做 dns 域名解析,可以加快速度。v 参数是显示详细信息。z 参数就是扫描模式,默认就是 tcp 全链接扫描。w 参数是设置超时时间。nc 使用全链接方式扫描端口命令格式如下:nc -nvz 1.1.1.1 1-100。

    0x01:nc 全链接扫描端口

    首先执行其命令,结果如下:

    请输入图片描述

    可以通过 wireshark 看下 nc 全链接方式扫描端口的过程,是否是完整的三次握手,如下图:

    请输入图片描述

    如上图,80 端口是开放的,走的是 syn-syn/ack-ack,而其他没有开放的端口则是 syn-rst/ack。

    0x02:总结

    全链接扫描端口目前就记录完毕了,一共有 nmap,scapy,nc 三种,相对来说 nmap 是最方便的,nc 也不错,scapy 是比较麻烦的。


                                                                            公众号推荐:aFa攻防实验室

                             分享关于信息搜集、Web安全、内网安全、代码审计、红蓝对抗、Java、Python等方面的东西。

                                                                               

    展开全文
  • 端口扫描 - nmap - 全链接扫描

    千次阅读 2018-11-18 22:23:10
    全链接扫描参数是 sT,T 既代表 tcp 全链接,使用方法和隐蔽扫描无异,只不过由 sS 换成了 sT。 0x01:nmap 全链接扫描 端口方式还是范围方式,逗号方式,- 全端口方式,以及不写端口默认常用 1000 个端口的方式。...

    0x00:简介

    nmap 之前的隐蔽扫描方式主要是通过 sS 参数只像目标服务器发送 SYN 包根据返回结果来判断端口是否开放。全链接扫描参数是 sT,T 既代表 tcp 全链接,使用方法和隐蔽扫描无异,只不过由 sS 换成了 sT。

    0x01:nmap 全链接扫描

    端口方式还是范围方式,逗号方式,- 全端口方式,以及不写端口默认常用 1000 个端口的方式。以范围方式为例,如下图:

    请输入图片描述

    通过 wireshark 抓包如下:

    请输入图片描述

    这里的话需要注意下粉色背景的信息,粉色背景的是自己机器发送到目标服务器的,包类型是 ack 确认包,根据抓包类型也可以看出 sT 执行的是全链接的方式,当端口开放时,自己会回一个 ack 确认包。

    0x02:总结

    nmap 的 sT 参数和 sS 参数一样,比较简单,使用也比较方便。


                                                                          公众号推荐:aFa攻防实验室

                             分享关于信息搜集、Web安全、内网安全、代码审计、红蓝对抗、Java、Python等方面的东西。

                                                                              

    展开全文
  • 左连接 右连接 全链接 内连接 详解

    千次阅读 2013-04-01 21:09:24
    全链接 :相当于集合的并集 全部都会联合一次   在查找对应关系的时候 A表10000行,B表10000行,都不算大. 但是全相乘,在内存中生成一个非常大的数据. 10000*10000行. 另外:索引没利用 虽然...

    题目查询下列两表的对应关系



    全链接 :相当于集合的并集 全部都会联合一次


     

    在查找对应关系的时候



    A表10000行,B表10000行,都不算大.

    但是全相乘,在内存中生成一个非常大的数据. 10000*10000行.
    另外:索引没利用


    虽然全链接很常用 很多人用,但是它的效率极低,生成n*m行数据再筛选出来


    左链接:

    左连接的语法:

    假设A表在左,不动,B表在A表的右边滑动.

    A表与B表通过一个关系来筛选B表的行.

    语法:

    A left join B on 条件  条件为真,B表对应的行,取出

    A left join B on 条件 

    这一块,形成的也是一个结果集,可以看成一张表 设为C

    既如此,可以对C表作查询,自然where,group ,having ,order by ,limit 照常使用




    以男生为基准,女生表从上往下逐个匹配,由于次方法用索引,所以效率高很多!

    没有另一半的,用NULL补齐



    以女生为基准,生表从上往下逐个匹配


    注意,a left join b,并不是说a表的就一定在左边,只是说在查询数据时,以a表为准


    右连接:

    用右连接. 刚才是 女生 left join 男
    用右连接,只需 男 right join 女


     就是一个相对的关系 你在我左边  那么 我就在你右边  明白了左链接  反过来就明白右连接了!



    左右连接是可以互换的

    A left join B, 就等价于 B right join A

    注意:既然左右连接可以互换,尽量用左连接,出于移植时兼容性方面的考虑.



    内连接

    如果从集合的角度

    A inner join B

    和 left join /rightjoin的关系

    答: 内连接是左右连接的交集



    1  女生左链接   中本来有的屌丝->null 没有了

    2 男生左链接 中本来有的宝钗 ->null 没有了

    内连接是左右连接的交集



    经典左链接面试题


    按以上的形式查询





    A left join B on 条件 

    这一块,形成的也是一个结果集,可以看成一张表 设为C

    既如此,可以对C表作查询,自然where,group ,having ,order by ,limit 照常使用



     

    可以无限左链接 并且可以把它看成一个表 然后进行having 筛选

    展开全文
  • 全链接bp算法 这里作为自己对卷积神经网络反向传播算法的理解。首先还是从经典的全链接bp算法开始。 1、前向传播  所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是...

    全链接bp算法

    这里作为自己对卷积神经网络反向传播算法的理解。首先还是从经典的全链接bp算法开始。

    1、前向传播
        所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:File:Network331.png
       我们使用圆圈来表示神经网络的输入,标上“\textstyle +1”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元。

    这里我们将激活函数 \textstyle f(\cdot) 扩展为用向量(分量的形式)来表示,即 \textstyle f([z_1, z_2, z_3]) = [f(z_1), f(z_2), f(z_3)] ,那么,上面的等式可以更简洁地表示为:


    \begin{align}z^{(2)} &= W^{(1)} x + b^{(1)} \\a^{(2)} &= f(z^{(2)}) \\z^{(3)} &= W^{(2)} a^{(2)} + b^{(2)} \\h_{W,b}(x) &= a^{(3)} = f(z^{(3)})\end{align}


    我们将上面的计算步骤叫作前向传播。回想一下,之前我们用 \textstyle a^{(1)} = x 表示输入层的激活值,那么给定第 \textstyle l 层的激活值 \textstyle a^{(l)} 后,第 \textstyle l+1 层的激活值 \textstyle a^{(l+1)} 就可以按照下面步骤计算得到:


     \begin{align}z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)}   \\a^{(l+1)} &= f(z^{(l+1)})\end{align}


    将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。

     2/反向传播 

       假设我们有一个固定样本集 \textstyle \{ (x^{(1)}, y^{(1)}), \ldots, (x^{(m)}, y^{(m)}) \},它包含 \textstyle m 个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例 \textstyle (x,y),其代价函数为:

    \begin{align}J(W,b; x,y) = \frac{1}{2} \left\| h_{W,b}(x) - y \right\|^2.\end{align}

    这是一个(二分之一的)方差代价函数。给定一个包含 \textstyle m 个样例的数据集,我们可以定义整体代价函数为:

     \begin{align}J(W,b)&= \left[ \frac{1}{m} \sum_{i=1}^m J(W,b;x^{(i)},y^{(i)}) \right]                       + \frac{\lambda}{2} \sum_{l=1}^{n_l-1} \; \sum_{i=1}^{s_l} \; \sum_{j=1}^{s_{l+1}} \left( W^{(l)}_{ji} \right)^2 \\&= \left[ \frac{1}{m} \sum_{i=1}^m \left( \frac{1}{2} \left\| h_{W,b}(x^{(i)}) - y^{(i)} \right\|^2 \right) \right]                       + \frac{\lambda}{2} \sum_{l=1}^{n_l-1} \; \sum_{i=1}^{s_l} \; \sum_{j=1}^{s_{l+1}} \left( W^{(l)}_{ji} \right)^2\end{align}

    以上公式中的第一项 \textstyle J(W,b) 是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。


    [注:通常权重衰减的计算并不使用偏置项 \textstyle b^{(l)}_i,比如我们在 \textstyle J(W, b) 的定义中就没有使用。一般来说,将偏置项包含在权重衰减项中只会对最终的神经网络产生很小的影响。如果你在斯坦福选修过CS229(机器学习)课程,或者在YouTube上看过课程视频,你会发现这个权重衰减实际上是课上提到的贝叶斯规则化方法的变种。在贝叶斯规则化方法中,我们将高斯先验概率引入到参数中计算MAP(极大后验)估计(而不是极大似然估计)。]


    权重衰减参数 \textstyle \lambda 用于控制公式中两项的相对重要性。在此重申一下这两个复杂函数的含义:\textstyle J(W,b;x,y) 是针对单个样例计算得到的方差代价函数;\textstyle J(W,b) 是整体样本代价函数,它包含权重衰减项。


    以上的代价函数经常被用于分类和回归问题。在分类问题中,我们用 \textstyle y = 0 或 \textstyle 1,来代表两种类型的标签(回想一下,这是因为 sigmoid激活函数的值域为 \textstyle [0,1];如果我们使用双曲正切型激活函数,那么应该选用 \textstyle -1 和 \textstyle +1 作为标签)。对于回归问题,我们首先要变换输出值域(译者注:也就是 \textstyle y),以保证其范围为 \textstyle [0,1] (同样地,如果我们使用双曲正切型激活函数,要使输出值域为 \textstyle [-1,1])。


    我们的目标是针对参数 \textstyle W 和 \textstyle b 来求其函数 \textstyle J(W,b) 的最小值。为了求解神经网络,我们需要将每一个参数 \textstyle W^{(l)}_{ij} 和 \textstyle b^{(l)}_i 初始化为一个很小的、接近零的随机值(比如说,使用正态分布 \textstyle {Normal}(0,\epsilon^2) 生成的随机值,其中 \textstyle \epsilon 设置为 \textstyle 0.01 ),之后对目标函数使用诸如批量梯度下降法的最优化算法。因为 \textstyle J(W, b) 是一个非凸函数,梯度下降法很可能会收敛到局部最优解;但是在实际应用中,梯度下降法通常能得到令人满意的结果。最后,需要再次强调的是,要将参数进行随机初始化,而不是全部置为 \textstyle 0。如果所有参数都用相同的值作为初始值,那么所有隐藏层单元最终会得到与输入值有关的、相同的函数(也就是说,对于所有 \textstyle i\textstyle W^{(1)}_{ij}都会取相同的值,那么对于任何输入 \textstyle x 都会有:\textstyle a^{(2)}_1 = a^{(2)}_2 = a^{(2)}_3 = \ldots )。随机初始化的目的是使对称失效


    梯度下降法中每一次迭代都按照如下公式对参数 \textstyle W 和\textstyle b 进行更新:

    \begin{align}W_{ij}^{(l)} &= W_{ij}^{(l)} - \alpha \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b) \\b_{i}^{(l)} &= b_{i}^{(l)} - \alpha \frac{\partial}{\partial b_{i}^{(l)}} J(W,b)\end{align}

    其中 \textstyle \alpha 是学习速率。其中关键步骤是计算偏导数。我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法。


    我们首先来讲一下如何使用反向传播算法来计算 \textstyle \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x, y) 和 \textstyle \frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x, y),这两项是单个样例 \textstyle (x,y) 的代价函数 \textstyle J(W,b;x,y) 的偏导数。一旦我们求出该偏导数,就可以推导出整体代价函数 \textstyle J(W,b) 的偏导数:


    \begin{align}\frac{\partial}{\partial W_{ij}^{(l)}} J(W,b) &=\left[ \frac{1}{m} \sum_{i=1}^m \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x^{(i)}, y^{(i)}) \right] + \lambda W_{ij}^{(l)} \\\frac{\partial}{\partial b_{i}^{(l)}} J(W,b) &=\frac{1}{m}\sum_{i=1}^m \frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x^{(i)}, y^{(i)})\end{align}

    以上两行公式稍有不同,第一行比第二行多出一项,是因为权重衰减是作用于 \textstyle W 而不是 \textstyle b


    反向传播算法的思路如下:给定一个样例 \textstyle (x,y),我们首先进行“前向传导”运算,计算出网络中所有的激活值,包括 \textstyle h_{W,b}(x) 的输出值。之后,针对第 \textstyle l 层的每一个节点 \textstyle i,我们计算出其“残差” \textstyle \delta^{(l)}_i,该残差表明了该节点对最终输出值的残差产生了多少影响。对于最终的输出节点,我们可以直接算出网络产生的激活值与实际值之间的差距,我们将这个差距定义为 \textstyle \delta^{(n_l)}_i (第 \textstyle n_l 层表示输出层)。对于隐藏单元我们如何处理呢?我们将基于节点(译者注:第 \textstyle l+1 层节点)残差的加权平均值计算 \textstyle \delta^{(l)}_i,这些节点以 \textstyle a^{(l)}_i 作为输入。下面将给出反向传导算法的细节:


    1. 进行前馈传导计算,利用前向传导公式,得到 \textstyle L_2, L_3, \ldots  直到输出层 \textstyle L_{n_l} 的激活值。
    2. 对于第 \textstyle n_l 层(输出层)的每个输出单元 \textstyle i,我们根据以下公式计算残差:
      \begin{align}\delta^{(n_l)}_i= \frac{\partial}{\partial z^{(n_l)}_i} \;\;        \frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 = - (y_i - a^{(n_l)}_i) \cdot f'(z^{(n_l)}_i)\end{align}
      [译者注:
       \begin{align}\delta^{(n_l)}_i &= \frac{\partial}{\partial z^{n_l}_i}J(W,b;x,y) = \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 \\ &= \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}} (y_j-a_j^{(n_l)})^2 = \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}} (y_j-f(z_j^{(n_l)}))^2 \\ &= - (y_i - f(z_i^{(n_l)})) \cdot f'(z^{(n_l)}_i) = - (y_i - a^{(n_l)}_i) \cdot f'(z^{(n_l)}_i)\end{align}
      ]
    3. 对 \textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2 的各个层,第 \textstyle l 层的第 \textstyle i 个节点的残差计算方法如下:
       \delta^{(l)}_i = \left( \sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} \delta^{(l+1)}_j \right) f'(z^{(l)}_i)
      {译者注:
       \begin{align}\delta^{(n_l-1)}_i &=\frac{\partial}{\partial z^{n_l-1}_i}J(W,b;x,y) = \frac{\partial}{\partial z^{n_l-1}_i}\frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2  = \frac{\partial}{\partial z^{n_l-1}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}}(y_j-a_j^{(n_l)})^2 \\&= \frac{1}{2} \sum_{j=1}^{S_{n_l}}\frac{\partial}{\partial z^{n_l-1}_i}(y_j-a_j^{(n_l)})^2 = \frac{1}{2} \sum_{j=1}^{S_{n_l}}\frac{\partial}{\partial z^{n_l-1}_i}(y_j-f(z_j^{(n_l)}))^2 \\&= \sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) \cdot \frac{\partial}{\partial z_i^{(n_l-1)}}f(z_j^{(n_l)}) = \sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) \cdot  f'(z_j^{(n_l)}) \cdot \frac{\partial z_j^{(n_l)}}{\partial z_i^{(n_l-1)}} \\&= \sum_{j=1}^{S_{n_l}} \delta_j^{(n_l)} \cdot \frac{\partial z_j^{(n_l)}}{\partial z_i^{n_l-1}} = \sum_{j=1}^{S_{n_l}} \left(\delta_j^{(n_l)} \cdot \frac{\partial}{\partial z_i^{n_l-1}}\sum_{k=1}^{S_{n_l-1}}f(z_k^{n_l-1}) \cdot W_{jk}^{n_l-1}\right) \\&= \sum_{j=1}^{S_{n_l}} \delta_j^{(n_l)} \cdot  W_{ji}^{n_l-1} \cdot f'(z_i^{n_l-1}) = \left(\sum_{j=1}^{S_{n_l}}W_{ji}^{n_l-1}\delta_j^{(n_l)}\right)f'(z_i^{n_l-1})\end{align}
      将上式中的\textstyle n_l-1\textstyle n_l的关系替换为\textstyle l\textstyle l+1的关系,就可以得到:
       \delta^{(l)}_i = \left( \sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} \delta^{(l+1)}_j \right) f'(z^{(l)}_i)
      以上逐次从后向前求导的过程即为“反向传导”的本意所在。 ]
    4. 计算我们需要的偏导数,计算方法如下:
       \begin{align}\frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x, y) &= a^{(l)}_j \delta_i^{(l+1)} \\\frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x, y) &= \delta_i^{(l+1)}.\end{align}


    最后,我们用矩阵-向量表示法重写以上算法。我们使用“\textstyle \bullet” 表示向量乘积运算符(在Matlab或Octave里用“.*”表示,也称作阿达马乘积)。若 \textstyle a = b \bullet c,则 \textstyle a_i = b_ic_i。在上一个教程中我们扩展了 \textstyle f(\cdot) 的定义,使其包含向量运算,这里我们也对偏导数 \textstyle f'(\cdot) 也做了同样的处理(于是又有  \textstyle f'([z_1, z_2, z_3]) = [f'(z_1), f'(z_2), f'(z_3)] )。


    那么,反向传播算法可表示为以下几个步骤:

    1. 进行前馈传导计算,利用前向传导公式,得到 \textstyle L_2, L_3, \ldots直到输出层 \textstyle L_{n_l} 的激活值。
    2. 对输出层(第 \textstyle n_l 层),计算:
       \begin{align}\delta^{(n_l)}= - (y - a^{(n_l)}) \bullet f'(z^{(n_l)})\end{align}
    3. 对于 \textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2 的各层,计算:
       \begin{align}\delta^{(l)} = \left((W^{(l)})^T \delta^{(l+1)}\right) \bullet f'(z^{(l)})\end{align}
    4. 计算最终需要的偏导数值:
       \begin{align}\nabla_{W^{(l)}} J(W,b;x,y) &= \delta^{(l+1)} (a^{(l)})^T, \\\nabla_{b^{(l)}} J(W,b;x,y) &= \delta^{(l+1)}.\end{align}


    实现中应注意:在以上的第2步和第3步中,我们需要为每一个 \textstyle i 值计算其 \textstyle f'(z^{(l)}_i)。假设 \textstyle f(z) 是sigmoid函数,并且我们已经在前向传导运算中得到了 \textstyle a^{(l)}_i。那么,使用我们早先推导出的 \textstyle f'(z)表达式,就可以计算得到 \textstyle f'(z^{(l)}_i) = a^{(l)}_i (1- a^{(l)}_i)


    最后,我们将对梯度下降算法做个全面总结。在下面的伪代码中,\textstyle \Delta W^{(l)} 是一个与矩阵 \textstyle W^{(l)} 维度相同的矩阵,\textstyle \Delta b^{(l)} 是一个与 \textstyle b^{(l)} 维度相同的向量。注意这里“\textstyle \Delta W^{(l)}”是一个矩阵,而不是“\textstyle \Delta 与 \textstyle W^{(l)} 相乘”。下面,我们实现批量梯度下降法中的一次迭代:


    1. 对于所有 \textstyle l,令 \textstyle \Delta W^{(l)} := 0 , \textstyle \Delta b^{(l)} := 0 (设置为全零矩阵或全零向量)
    2. 对于 \textstyle i = 1 到 \textstyle m
      1. 使用反向传播算法计算 \textstyle \nabla_{W^{(l)}} J(W,b;x,y) 和 \textstyle \nabla_{b^{(l)}} J(W,b;x,y)
      2. 计算 \textstyle \Delta W^{(l)} := \Delta W^{(l)} + \nabla_{W^{(l)}} J(W,b;x,y)
      3. 计算 \textstyle \Delta b^{(l)} := \Delta b^{(l)} + \nabla_{b^{(l)}} J(W,b;x,y)
    3. 更新权重参数:
       \begin{align}W^{(l)} &= W^{(l)} - \alpha \left[ \left(\frac{1}{m} \Delta W^{(l)} \right) + \lambda W^{(l)}\right] \\b^{(l)} &= b^{(l)} - \alpha \left[\frac{1}{m} \Delta b^{(l)}\right]\end{align}

    现在,我们可以重复梯度下降法的迭代步骤来减小代价函数 \textstyle J(W,b) 的值,进而求解我们的神经网络。


    展开全文
  • 但是其结果卷积网络可以接收任意大小的图片输入,得到一个score map,对其做一个average就可以得到最终结果(one-hot label)。之所以需要这样设计,因为他们train与test的图片大小是不一样的。 卷积层和全连接层的...
  • 文字实录链接: 北大AI公开课第1讲:雷鸣评人工智能前沿与行业结合点 视频链接:http://www.iqiyi.com/l_19rrf6l46v.html   真格基金徐小平:技术、市场缺一不可,找到最合适的中国合伙人 文字实录...
  • 今天有朋友请教我一个问题,问的是跟别人交换友情链接后,自己是链接,而其他人网站都是首页链接,问这种情况自己是不是很吃亏,自己网站的友情链接输出太多,会不会对你的排名有影响。 遇到这个问题,我还真...
  • 韩顺平视频全集 云盘链接

    万次阅读 热门讨论 2017-11-13 16:46:19
    链接:http://pan.baidu.com/s/1pLBkAMn 密码:hibp
  • 百度链接提交入口攻略

    千次阅读 2019-03-02 09:07:53
    百度链接提交入口攻略 很多网站没有被收录,也没有排名,经常有SEO站长向我抱怨。其实提升网站收录有方法和诀窍的。下面我详细的为大家分享,如何向百度提交链接,提升网站被的机率。 1,新站告诉搜索引擎 很...
  • OPC全套的动态链接

    热门讨论 2015-11-04 00:45:55
    OpcRcw.Da OpcRcw.Comn 等opc全套连接库 很的资料,方便大家的使用
  • 安装 | MATLAB2018a (64位) 安装教程及安装包下载链接

    万次阅读 多人点赞 2019-04-04 11:39:01
    博主github:https://github.com/MichaelBeechan ... 安装包下载链接:内附MATLAB从入门到精通视频教程 17讲 链接:https://pan.baidu.com/s/12NM-hWPhXg8mFhdoGbpv7A 提取码:1i4x 链接:https://pan.baidu...
  • C# WPF全套教程视频百度云下载链接.rar C# WPF全套教程视频百度云下载链接.rar C# WPF全套教程视频百度云下载链接.rar
  • C++编译链接全过程

    千次阅读 2018-07-22 16:47:00
    在编译链接过程中,汇编完成后生成“可重定位的二进制文件.obj”,链接阶段完成后生成可执行文件.exe,这两者有何区别呢?可重定位文件为什么不可以运行?接下来将比较这种文件的结构布局,以回答上面的疑惑。 ...
  • 深入浅出静态链接和动态链接

    万次阅读 多人点赞 2018-05-06 09:24:48
    作为一名C/C++程序员,对于编译链接的过程要了然于胸。首先大概介绍一下,编译分为3步,首先对源文件进行预处理,这个过程主要是处理一些#号定义的命令或语句(如宏、#include、预编译指令#ifdef等),生成*.i文件;...
  • 如何对站进行死链接检测?

    千次阅读 2015-10-14 13:11:18
    众所周知,网站改版后要进行死链接检测,下面笔者讲解下如何对站进行死链接检测,主要学习内容有:1、死链接简介;2、死链接检查的必要性;3、使用xenu工具检测死链接;4、死链接的反馈处理;5、其他检查工具。ok,...
  • 关于动态链接与静态链接

    万次阅读 2012-03-22 14:48:31
    大家都知道应用程序有两种链接方式,一种是静态链接,一种是动态链接,这两种链接方式各有好处。 程序的静态连接还是动态连接是根据编译器的连接参数指定的。 所谓静态链接就是在编译链接时直接将需要的执行代码...
  • 临时链接转为永久链接的三种方法

    千次阅读 2019-11-15 16:55:39
    我为大家收集了史上最临时转永久链接方法,大家可以根据自己的喜好进行选择使用。 一、临时转永久链接功能 为了帮大家解决这个难题,小蚂蚁编辑器特意上线了临时转永久链接功能。 点击小蚂蚁编辑器工具栏上方的...
  • 华为系Visio图标下载链接

    万次阅读 2019-07-09 07:08:52
    工作需要,给客户画网络拓扑,是华为产品,Visio中不包含这些型号的图标,只能自己下载了,找到了华为系Visio下载地址,分享给大家,方便自己以后寻找。 产品图库 一站式获取产品照片、Visio模板及网元图标等...
  • WordPress如何简单设置链接都新窗口打开文章中需要在新的窗口打开链接大概需要在几个地方1.网站友情链接2.文章中的超链接3.评论链接4.网站导航链接5.网站子导航链接6.网站其他内链以上加粗的两个是非常重要的,...
  • 安卓开发视频教学 (76课)迅雷下载链接 非常经典的安卓开发视频教学视频!对安卓和电脑有浓厚兴趣并且有坚强意志力的网友们可千万不要错过!
  • 2019年全套web前端视频教程链接分享

    千次阅读 2019-04-16 14:55:47
    互联网技术日新月异,老旧的技术已经无法满足企业对于人才的需求,那么想要胜任企业的岗位,那么你得学到扎实的技术,全套web前端视频教程链接分享给大家。 好程序员Web前端基础视频教程 2019好程序员...
  • 静态链接库与动态链接库区别

    千次阅读 2016-02-25 18:19:56
    一、 静态链接库与动态链接库区别 静态链接库与动态链接库都是共享代码的方式,如果采用静态链接库,则无论你愿不愿意,lib 中的指令都全部被直接包含在最终生成的 EXE 文件中了。但是若使用 DLL,该 DLL ...
  • 首先简单理解一下硬链接和符号链接(软链接)的区别(此文中的符号链接和软链接指同一概念): 硬连接指向的是节点(inode),而软连接指向的是路径(path) 。 最初的文件名与所有的硬链接地位是对等的,比如为文件 a...
  • 编译链接过程

    千次阅读 2018-08-24 23:17:54
    编译链接过程 C/C++程序从文本到可执行文件之间是一个复杂的过程. 对于源代码(.c/.cpp)文件我们是不能直接运行的, 必须经过一系列的处理才能转化为机器语言, 再通过链接相应的文件转化为可执行程序. 这个过程称为...
  • 百度网盘 海量资源链接

    万次阅读 多人点赞 2018-12-28 14:23:57
    整理了一些学习资料的链接: 和大家分享一下,各取所需 JAVA资料 Java视频和资料: 链接:https://pan.baidu.com/s/1bqUXYKf密码:k38w 数据结构视频和资料: 链接:https://pan.baidu.com/s/1tGglwz0...
  • WPF学习教程链接总汇

    千次阅读 2008-10-22 16:43:00
    找到一些有关WPF的学习的教程,包括网站、视频、论坛,在此提供链接,分享一下,想学习的朋友可以在线观看! 同时,以后要是看到新的网页也会添加相关链接,谢谢关注!   WPF视频教程全集链接 ...
  • 史上最Centos7安装教程,附上下载链接 Linux是一套开源的类Unix系统,它除了在服务器操作系统方面保持着强劲的发展势头以外,在个人电脑、嵌入式系统上都有着长足的进步。既然说到是操作系统,那第一步肯定是安装...
  • 创建软链接链接名闪烁解决办法

    万次阅读 2016-11-09 14:42:23
    【创建软硬链接】 ln -s targetfile /root/xxx/linkfile ln file hfile 为file创建一个硬链接hfile ln -s file sfile 为file创建一个软链接sfile 1、硬链接可以随便移到其他目录,软链接不行 2、软链接标明文件...
  • 链接分析

    千次阅读 2013-04-12 15:45:10
    1. 链接分析   搜索引擎在查找能够满足用户请求的网页时,主要考虑两方面的因素:  网页和查询的相关性:是用户发出的查询与网页内容的内容相似性得分。  网页的重要性:通过链接分析方法计算获得的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 560,156
精华内容 224,062
关键字:

全链接