精华内容
下载资源
问答
  • 爬虫基本原理和概念

    千次阅读 2019-01-17 19:59:05
    Request中包含什么 1.请求方式 2.请求URL(统一资源定位符) 3.请求头(请求的配置信息) 4.请求体 Response中包含什么 1.响应状态 2.响应头 3.响应体 能抓怎样的数据 解析方式 保存数据 爬虫基本流程 ...

    目录

     

    爬虫基本流程

    1.发起请求

    2.获取相应内容

    3.解析内容

    4.保存数据

    Request&Response

    Request中包含什么

    1.请求方式

    2.请求URL(统一资源定位符)

    3.请求头(请求的配置信息)

    4.请求体

    Response中包含什么

    1.响应状态

    2.响应头

    3.响应体

    能抓怎样的数据

    解析方式

    保存数据


    爬虫基本流程

    1.发起请求

    通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器相应

    2.获取相应内容

    若服务器能正常相应,会得到一个Response,response的内容便是所要获取的页面内容,类型可能有HTML,json字符串,二进制数据(图片视频)等类型

    3.解析内容

    HTML,可以用正则表达式,网页解析库进行解析

    json,直接转为json对象解析

    二进制数据,保存或进一步的处理

    4.保存数据

    可以存为文本,也可以保存至数据库,或者保存特定格式的文件

    Request&Response

    (1)浏览器发送消息给该网址所在的服务器(HTTP Request)

    (2)服务器收到消息后,根据浏览器发送消息的内容,做相应处理,然后把消息回传给服务器(HTTP Responce)

    (3)浏览器收到服务器的Responce信息后,会对信息进行相应处理,然后展示

    Request中包含什么

    1.请求方式

    GET   POST

    HEAD   PUT   DELETE   OPTIONS

     

    GET与POST差别

    GET

    POST

    请求信息

    请求信息在链接中

    请求信息包含在Form Data

    构建请求方式

    输入URL回车直接访问

    通过构造表单点击表单提交

     

    2.请求URL(统一资源定位符)

    如一个网页文档,一张图片,一个视频都可以用URL唯一来确定

    3.请求头(请求的配置信息)

    包含请求时的头部信息

    cookie:保持登录会话

    User-Agent:指定浏览器请求头

    告诉服务器请求的文档类型,携带的cookie,浏览器配置,服务器判断信息是否合法,根据解析结果返回相应的文件内容,爬虫一般加上Request Headers以保证请求正常运行

    4.请求体

    请求时额外携带的数据

    在POST请求方式中的Form Data中

    Response中包含什么

    1.响应状态

    200:正常

    300以上:跳转

    500以上:服务器处理错误

    2.响应头

    内容类型,内容长度,服务器信息,设置cooike等

    3.响应体

    包含请求资源的内容,如网页HTML,图片二进制数据等

    能抓怎样的数据

    网页文本    HTML文档,Json格式文本等

    图片    获取到的是二进制流,将二进制文件保存为图片格式

                with open('文件名','wb') as f:

                    f.write(二进制流)

    视频    同图片为二进制数据

    其他    能请求到的都能获取

    解析方式

    1.直接处理

    2.Json解析

    3.正则表达式

    4.BeautifulSoup

    5.PyQuery

    6.XPath

    保存数据

    1.文本    纯文本,JSon,Xml等

    2.关系型数据库    如MySQL,Oracle,SQL Sever等具有结构化表结构形式存储

    3.非关系型数据库    如MongoDB,Redis等Key-Value形式存储

    4.二进制文件

    展开全文
  • 卷积神经网络概念原理

    万次阅读 多人点赞 2016-09-05 10:00:27
    受HubelWiesel对猫视觉皮层电生理研究启发,人提出卷积神经网络(CNN),Yann Lecun 最早将CNN用于手写数字识别并一直保持了其在该问题的霸主地位。近年来卷积神经网络在多个方向持续发力,在语音识别、人脸...

    一、卷积神经网络的基本概念

     

           受Hubel和Wiesel对猫视觉皮层电生理研究启发,有人提出卷积神经网络(CNN),Yann Lecun 最早将CNN用于手写数字识别并一直保持了其在该问题的霸主地位。近年来卷积神经网络在多个方向持续发力,在语音识别、人脸识别、通用物体识别、运动分析、自然语言处理甚至脑电波分析方面均有突破。

           卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。在CNN的一个卷积层中,通常包含若干个特征平面(featureMap),每个特征平面由一些矩形排列的的神经元组成,同一特征平面的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟合的风险。子采样也叫做池化(pooling),通常有均值子采样(mean pooling)和最大值子采样(max pooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了模型复杂度,减少了模型的参数。

    二、卷积神经网络的应用场景

     

    三、卷积神经网络的原理

    3.1 神经网络

           首先介绍神经网络,这一步的详细可以参考资源1。简要介绍下。神经网络的每个单元如下:

    logistic

           其对应的公式如下:

    equal

           其中,该单元也可以被称作是Logistic回归模型。当将多个单元组合起来并具有分层结构时,就形成了神经网络模型。下图展示了一个具有一个隐含层的神经网络。

    equal

            其对应的公式如下:

    equal

           比较类似的,可以拓展到有2,3,4,5,…个隐含层。

           神经网络的训练方法也同Logistic类似,不过由于其多层性,还需要利用链式求导法则对隐含层的节点进行求导,即梯度下降+链式求导法则,专业名称为反向传播。关于训练算法,本文暂不涉及。

    3.2 卷积神经网络

           受Hubel和Wiesel对猫视觉皮层电生理研究启发,有人提出卷积神经网络(CNN),Yann Lecun 最早将CNN用于手写数字识别并一直保持了其在该问题的霸主地位。近年来卷积神经网络在多个方向持续发力,在语音识别、人脸识别、通用物体识别、运动分析、自然语言处理甚至脑电波分析方面均有突破。

           卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。在CNN的一个卷积层中,通常包含若干个特征平面(featureMap),每个特征平面由一些矩形排列的的神经元组成,同一特征平面的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟合的风险。子采样也叫做池化(pooling),通常有均值子采样(mean pooling)和最大值子采样(max pooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了模型复杂度,减少了模型的参数。卷积神经网络的基本结构如图所示:

     

           卷积神经网络由三部分构成。第一部分是输入层。第二部分由n个卷积层和池化层的组合组成。第三部分由一个全连结的多层感知机分类器构成。

    3.2.1局部感受野

           卷积神经网络有两种神器可以降低参数数目,第一种神器叫做局部感知野。一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。网络部分连通的思想,也是受启发于生物学里面的视觉系统结构。视觉皮层的神经元就是局部接受信息的(即这些神经元只响应某些特定区域的刺激)。如下图所示:左图为全连接,右图为局部连接。

    equal

            在上右图中,假如每个神经元只和10×10个像素值相连,那么权值数据为1000000×100个参数,减少为原来的万分之一。而那10×10个像素值对应的10×10个参数,其实就相当于卷积操作。

    3.2.3 权值共享

           但其实这样的话参数仍然过多,那么就启动第二级神器,即权值共享。在上面的局部连接中,每个神经元都对应100个参数,一共1000000个神经元,如果这1000000个神经元的100个参数都是相等的,那么参数数目就变为100了。

           怎么理解权值共享呢?我们可以这100个参数(也就是卷积操作)看成是提取特征的方式,该方式与位置无关。这其中隐含的原理则是:图像的一部分的统计特性与其他部分是一样的。这也意味着我们在这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。

           更直观一些,当从一个大尺寸图像中随机选取一小块,比如说 8x8 作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个 8x8 样本中学习到的特征作为探测器,应用到这个图像的任意地方中去。特别是,我们可以用从 8x8 样本中所学习到的特征跟原本的大尺寸图像作卷积,从而对这个大尺寸图像上的任一位置获得一个不同特征的激活值。

           如下图所示,展示了一个3×3的卷积核在5×5的图像上做卷积的过程。每个卷积都是一种特征提取方式,就像一个筛子,将图像中符合条件(激活值越大越符合条件)的部分筛选出来。

    equal

    3.2.4 多卷积核

           上面所述只有100个参数时,表明只有1个10*10的卷积核,显然,特征提取是不充分的,我们可以添加多个卷积核,比如32个卷积核,可以学习32种特征。在有多个卷积核时,如下图所示:

    equal

           上图右,不同颜色表明不同的卷积核。每个卷积核都会将图像生成为另一幅图像。比如两个卷积核就可以将生成两幅图像,这两幅图像可以看做是一张图像的不同的通道。如下图所示,下图有个小错误,即将w1改为w0,w2改为w1即可。下文中仍以w1和w2称呼它们。

          下图展示了在四个通道上的卷积操作,有两个卷积核,生成两个通道。其中需要注意的是,四个通道上每个通道对应一个卷积核,先将w2忽略,只看w1,那么在w1的某位置(i,j)处的值,是由四个通道上(i,j)处的卷积结果相加然后再取激活函数值得到的。

    equal

    equal

           所以,在上图由4个通道卷积得到2个通道的过程中,参数的数目为4×2×2×2个,其中4表示4个通道,第一个2表示生成2个通道,最后的2×2表示卷积核大小。

    3.2.5 Down-pooling

           在通过卷积获得了特征 (features) 之后,下一步我们希望利用这些特征去做分类。理论上讲,人们可以用所有提取得到的特征去训练分类器,例如 softmax 分类器,但这样做面临计算量的挑战。例如:对于一个 96X96 像素的图像,假设我们已经学习得到了400个定义在8X8输入上的特征,每一个特征和图像卷积都会得到一个 (96 − 8 + 1) × (96 − 8 + 1) = 7921 维的卷积特征,由于有 400 个特征,所以每个样例 (example) 都会得到一个 7921 × 400 = 3,168,400 维的卷积特征向量。学习一个拥有超过 3 百万特征输入的分类器十分不便,并且容易出现过拟合 (over-fitting)。

           为了解决这个问题,首先回忆一下,我们之所以决定使用卷积后的特征是因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值 (或最大值)。这些概要统计特征不仅具有低得多的维度 (相比使用所有提取得到的特征),同时还会改善结果(不容易过拟合)。这种聚合的操作就叫做池化 (pooling),有时也称为平均池化或者最大池化 (取决于计算池化的方法)。

    equal

            

           子采样有两种形式,一种是均值子采样(mean-pooling),一种是最大值子采样(max-pooling)。两种子采样看成特殊的卷积过程,如图下图所示:

           (1)均值子采样的卷积核中每个权重都是0.25,卷积核在原图inputX上的滑动的步长为2。均值子采样的效果相当于把原图模糊缩减至原来的1/4。

           (2)最大值子采样的卷积核中各权重值中只有一个为1,其余均为0,卷积核中为1的位置对应inputX被卷积核覆盖部分值最大的位置。卷积核在原图inputX上的滑动步长为2。最大值子采样的效果是把原图缩减至原来的1/4,并保留每个2*2区域的最强输入。

            至此,卷积神经网络的基本结构和原理已经阐述完毕。

     

    3.2.6 多卷积层

     

     

           在实际应用中,往往使用多层卷积,然后再使用全连接层进行训练,多层卷积的目的是一层卷积学到的特征往往是局部的,层数越高,学到的特征就越全局化。

    四、卷积神经网络的训练

          本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷积层和下采样层,虽然和MLP的bp算法本质上相同,但形式上还是有些区别的,很显然在完成CNN反向传播前了解bp算法是必须的。

    4.1 Forward前向传播

     

           前向过程的卷积为典型valid的卷积过程,即卷积核kernalW覆盖在输入图inputX上,对应位置求积再求和得到一个值并赋给输出图OutputY对应的位置。每次卷积核在inputX上移动一个位置,从上到下从左到右交叠覆盖一遍之后得到输出矩阵outputY(如图4.1与图4.3所示)。如果卷积核的输入图inputX为Mx*Nx大小,卷积核为Mw*Nw大小,那么输出图Y为(Mx-Mw+1)*(Nx-Nw+1)大小。

     

    4.2 BackForward反向传播

           在错误信号反向传播过程中,先按照神经网络的错误反传方式得到尾部分类器中各神经元的错误信号,然后错误信号由分类器向前面的特征抽取器传播。错误信号从子采样层的特征图(subFeatureMap)往前面卷积层的特征图(featureMap)传播要通过一次full卷积过程来完成。这里的卷积和上一节卷积的略有区别。如果卷积核kernalW的长度为Mw*Mw的方阵,那么subFeatureMap的错误信号矩阵Q_err需要上下左右各拓展Mw-1行或列,与此同时卷积核自身旋转180度。subFeatureMap的错误信号矩阵P_err等于featureMap的误差矩阵Q_err卷积旋转180度的卷积核W_rot180。

           下图错误信号矩阵Q_err中的A,它的产生是P中左上2*2小方块导致的,该2*2的小方块的对A的责任正好可以用卷积核W表示,错误信号A通过卷积核将错误信号加权传递到与错误信号量为A的神经元所相连的神经元a、b、d、e中,所以在下图中的P_err左上角的2*2位置错误值包含A、2A、3A、4A。同理,我们可以论证错误信号B、C、D的反向传播过程。综上所述,错误信号反向传播过程可以用下图中的卷积过程表示。

     

    4.3 权值更新过程中的卷积

           卷积神经网络中卷积层的权重更新过程本质是卷积核的更新过程。由神经网络的权重修改策略我们知道一条连接权重的更新量为该条连接的前层神经元的兴奋输出乘以后层神经元的输入错误信号,卷积核的更新也是按照这个规律来进行。

     

           在前向卷积过程中,卷积核的每个元素(链接权重)被使用过四次,所以卷积核每个元素的产生四个更新量。把前向卷积过程当做切割小图进行多个神经网络训练过程,我们得到四个4*1的神经网络的前层兴奋输入和后层输入错误信号,如图所示。

     

            根据神经网络的权重修改策略,我们可以算出如图所示卷积核的更新量W_delta。权重更新量W_delta可由P_out和Q_err卷积得到,如图下图所示。

    五、常见网络结构

     

    5.1 ImageNet-2010网络结构

    ImageNet LSVRC是一个图片分类的比赛,其训练集包括127W+张图片,验证集有5W张图片,测试集有15W张图片。本文截取2010年Alex Krizhevsky的CNN结构进行说明,该结构在2010年取得冠军,top-5错误率为15.3%。值得一提的是,在今年的ImageNet LSVRC比赛中,取得冠军的GoogNet已经达到了top-5错误率6.67%。可见,深度学习的提升空间还很巨大。

    下图即为Alex的CNN结构图。需要注意的是,该模型采用了2-GPU并行结构,即第1、2、4、5卷积层都是将模型参数分为2部分进行训练的。在这里,更进一步,并行结构分为数据并行与模型并行。数据并行是指在不同的GPU上,模型结构相同,但将训练数据进行切分,分别训练得到不同的模型,然后再将模型进行融合。而模型并行则是,将若干层的模型参数进行切分,不同的GPU上使用相同的数据进行训练,得到的结果直接连接作为下一层的输入。

    equal

    上图模型的基本参数为:
    
    • 输入:224×224大小的图片,3通道
    • 第一层卷积:11×11大小的卷积核96个,每个GPU上48个。
    • 第一层max-pooling:2×2的核。
    • 第二层卷积:5×5卷积核256个,每个GPU上128个。
    • 第二层max-pooling:2×2的核。
    • 第三层卷积:与上一层是全连接,3*3的卷积核384个。分到两个GPU上个192个。
    • 第四层卷积:3×3的卷积核384个,两个GPU各192个。该层与上一层连接没有经过pooling层。
    • 第五层卷积:3×3的卷积核256个,两个GPU上个128个。
    • 第五层max-pooling:2×2的核。
    • 第一层全连接:4096维,将第五层max-pooling的输出连接成为一个一维向量,作为该层的输入。
    • 第二层全连接:4096维
    • Softmax层:输出为1000,输出的每一维都是图片属于该类别的概率。

    5.2 DeepID网络结构

            DeepID网络结构是香港中文大学的Sun Yi开发出来用来学习人脸特征的卷积神经网络。每张输入的人脸被表示为160维的向量,学习到的向量经过其他模型进行分类,在人脸验证试验上得到了97.45%的正确率,更进一步的,原作者改进了CNN,又得到了99.15%的正确率。

    如下图所示,该结构与ImageNet的具体参数类似,所以只解释一下不同的部分吧。

    equal

           上图中的结构,在最后只有一层全连接层,然后就是softmax层了。论文中就是以该全连接层作为图像的表示。在全连接层,以第四层卷积和第三层max-pooling的输出作为全连接层的输入,这样可以学习到局部的和全局的特征。

     

     

     

     

    参考资源

    • [1] http://deeplearning.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B 栀子花对Stanford深度学习研究团队的深度学习教程的翻译
    • [2] http://blog.csdn.net/zouxy09/article/details/14222605 csdn博主zouxy09深度学习教程系列
    • [3] http://deeplearning.net/tutorial/ theano实现deep learning
    • [4] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]//Advances in neural information processing systems. 2012: 1097-1105.
    • [5] Sun Y, Wang X, Tang X. Deep learning face representation from predicting 10,000 classes[C]//Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on. IEEE, 2014: 1891-1898.
    • [6] http://blog.csdn.net/stdcoutzyx/article/details/41596663
     
     
    展开全文
  • CountDownLatchCyclicbarrier概念区别原理 1、概念   CountDownLatch:具有计数器的功能,等待其他线程执行完毕,主线程在继续执行,用于监听某些初始化操作,并且线程进行阻塞,等初始化执行完毕后,通知...

    CountDownLatch和Cyclicbarrier概念、区别及原理


    1、概念

      CountDownLatch:具有计数器的功能,等待其他线程执行完毕,主线程在继续执行,用于监听某些初始化操作,并且线程进行阻塞,等初始化执行完毕后,通知主线程继续工作执行。值得注意的是CountDownLatch计数的次数一定要与构造器传入的数字一致,比如构造器传入的是3,则countDown()一定要执行3次,否则线程将一直阻塞。CountDownLatch通常用来控制线程等待,它可以让线程等待倒计时结束,再开始执行。
      CyclicBrrier:翻译过来就是循环栅栏的意思,其作用就是多线程的进行阻塞,等待某一个临界值条件满足后,同时执行!假设有一个场景:每个线程代表一个跑步运动员,当运动员都准备好后,才一起出发,只要有一个人没有准备好,大家都等待!

    2、区别

      CountDownLatch: 一个线程(或者多个), 等待另外N个线程完成某个事情之后才能执行。
      CyclicBrrier: N个线程相互等待,任何一个线程完成之前,所有的线程都必须等待。


    3、Java 8 下源码分析
    3.1 CountDownLatch源码

    coutDownLatch 底层实现了QAS,具体源码后面再分析。

    3.2 CyclicBrrier源码

    转载于:https://blog.51cto.com/3265857/2336194

    展开全文
  • 引言 近年来,随着Internet的迅猛发展,连入Internet的主机数量成倍增长。由于最初设计Internet的时候并没有考虑到需要支持这么大的规模,因而Internet使用的Ipv4协议中IP地址的长度选择了32位,它可以使IP包的格式...
  • Dart 基础概念和内部原理

    千次阅读 2019-12-13 12:03:42
  • LDAP概念和原理介绍

    千次阅读 多人点赞 2019-10-17 19:17:30
    相信对于许多的朋友来说,可能听说过LDAP,但是实际中对LDAP的了解具体的原理可能还比较模糊,今天就从“什么是LDAP”、“LDAP的主要产品”、“LDAP的基本模型”、“LDAP的使用案例”四个方面来做一个介绍。...
  • 理解SMMU基本原理和基本概念

    万次阅读 2019-07-16 10:18:42
    什么是SMMU/IOMMU, 有什么作用: SMMU MMU完全一样的能力,当设备以DMA方式工作时,连接在它上面的IOMMU/SMMU可以将设备所使用的地址进行进一步的转换,完全MMU所作的事情一样 SMMU如何工作 MMU工作时候...
  • ORACLE rac集群概念和原理

    万次阅读 2019-04-17 15:21:35
    Oracle集群概念和原理 Oracle的三种高可用集群方案 1 RAC(Real Application Clusters) 多个Oracle服务器组成一个共享的Cache,而这些Oracle服务器共享一个基于网络的存储。这个系统可以容忍单机/或是多机失败...
  • HTTP DNS 原理概念了解 ;

    千次阅读 2018-08-31 14:12:50
    一 、 HTTP 原理概念介绍 ; 用户访问网站的原理过程是什么样~~~~ 01. DNS域名解析,获悉域名对应IP地址 02. 根据IP地址访问网站服务器,TCP三次握手过程 03. 用户向网站服务请求信息,HTTP请求过程(HTTP...
  • 计算机组成原理常见概念

    千次阅读 2020-05-18 00:24:14
    文章目录@[toc]计算机组成原理常见概念1. CPU1. 地址线2. 寄存器3.寄存器的作用4. 寻址5. 段寄存器6. 中断7. 操作数8. 数据寄存器9. 地址指针寄存器(SP BP SI DI)10. 段地址寄存器(CS DS SS ES)11. 逻辑地址12. ...
  • 泛型的概念和原理

    千次阅读 2018-07-25 17:19:29
    类、接口方法代码可以同应用于非常广泛的类型,代码与它们可以操作的数据类型不再绑定在一起,同一套代码可以用于多种数据类型,这样,不仅可以服用代码,降低耦合,而且可以提高代码的可读性安全性。...
  • socket的概念和原理

    千次阅读 2017-10-13 11:17:05
    1 socket概念 套接字(socket)是通信的基石,是支持TCP/IP协议的网络通信的基本操作单元。它是网络通信过程中端点的抽象表示,包含进行网络通信必须的五种信息:连接使用的协议,本地主机的IP地址,本地进程的...
  • Spring AOP面向方面编程原理:AOP概念,主要介绍面向对象的概念原理,及作者的一些理解。
  • MPLS基础原理概念

    2011-03-10 12:20:46
    MPLS基本原理和工作方式 与IP,ATM之间的区别
  • redis基本概念和原理

    万次阅读 2017-05-03 15:24:58
    由于近期工作很多地方都用到了它,所以花了不少时间来阅读文章、编码实验,了解一下Redis都能做些什么,能有什么样的性能表现。 首先遇到的第一个问题就是,Redis究竟是什么? 这个问题看似可笑,其实不然,我...
  • 编译原理与汇编语言的概念区别

    千次阅读 2015-10-28 09:38:04
    编译原理旨在介绍编译程序构造的一般原理和基本方法。内容包括语言文法、词法分析、语法分析、语法制导翻译、中间代码生成、存储管理、代码优化目标代码生成。   汇编语言(assembly language)是一种用于...
  • 【程序员基础必备】计算机组成原理概念大全

    千次阅读 多人点赞 2021-08-15 17:08:00
    计算机组成原理中的各种重要概念解析。
  • 数据库原理的基本概念

    千次阅读 多人点赞 2020-02-28 18:16:02
    数据库原理这门课已经学了一周多了,基础概念知识比较多,也比较杂,下面整理一下,也算是增加一点记忆。 ** 数据库的四个基本概念 ** 数据(Data):数据是描述事物的符号记录,数字,文字,图像,音频,视频,学生...
  • 插补的基本概念、脉冲增量插补与数据采样插补的特点和区别、逐点比较法的基本原理、直线插补圆弧插补
  • 计算机组成原理基本概念

    千次阅读 2012-07-03 19:38:07
    计算机组成原理基本概念 1.主机:由CPU、存储器与I/O接口合在一起构成的处理系统称为主机。 2.CPU:中央处理器,是计算机的核心部件,由运算器控制器构成。 3.运算器:计算机中完成运算功能的部件,由ALU寄存器...
  • NAPT 与 NAT 的区别在于,NAPT 不仅转换 IP 包中的 IP 地址,还对 IP 包中 TCP UDP 的 Port 进行转换。这使得多台私有网主机利用 1 个 NAT 公共 IP 就可以同时公共网进行通信。   如图 2 所示,私有网主机...
  • MRPII/ERP 的概念和方法 ;制造企业中常见的问题;What Do MRP , MRPII and ERP Stand for;MRP 可以做什么; 订 货 点 法;Probabilities of Simultaneous Availability;MRP订货点法的主要区别;制造业基本方程 ----MRP...
  • 又叫内存,计算机正在运行的程序数据,由存储体各类元素部件组成。 存储单元 可存放一个机器字,并具特殊地址的存储单元。 存储元件/基元/元 可存一位二进制信息的物理原件,是存储器中最小的物理单位。 ...
  • Android 帧动画、View动画、属性动画的概念原理、使用以及它们间的区别和联系
  • 4.3 CISCRISC的基本概念 思维导图 CISC 设计原因: 随着VLSI技术的发展,硬件成本不断下降,软件成本不断上升,促使人们在指令系统中增加更多、更复杂的指令,以适应不同的应用领域,这样就构成了复杂指令系统...
  • webservice的原理概念

    千次阅读 2010-01-25 16:48:00
    webservice的原理概念 1 webservice所谓webservice就是定义了一套标准的调用过程:a 服务器首先用一套标准的方法向外界描述它所提供的服务的内容,就属于WSDLb 客户端需要以一种标准的协议来调用此服务,这属于...
  • Socket概念原理

    千次阅读 2018-04-28 17:37:15
    一、socket原理学过TCP/IP网络编程惹读者肯定知道socket被称为套接字,那么socket在网络编程中的作用是什么呢?1、套接字在网络编程中的作用是什么? 在TCP/IP协议栈中,在网络层IP地址可以代表唯一的一台主机,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 313,085
精华内容 125,234
关键字:

原理和概念有什么区别