精华内容
下载资源
问答
  • 图文匹配&VQA》小结

    千次阅读 2018-08-16 10:08:37
    图文匹配以及图像的QA是图像与文本多模态融合,是计算机视觉与自然语言处理的交叉。 图文匹配:将图像与文本都映射到一个相同的语义空间,然后通过距离对他们的相似度进行判断。 图文匹配问题与VQA最大的不同...

    图文匹配以及图像的QA是图像与文本多模态融合,是计算机视觉与自然语言处理的交叉。

    图文匹配:将图像与文本都映射到一个相同的语义空间,然后通过距离对他们的相似度进行判断。

    图文匹配问题与VQA最大的不同就是,需要比对两种特征之间的距离。将文本和图像分别做attention,DAN计算每一步attention后的文本和图像向量相似度累加得到similarity.

    VQA:给定一张图像和一个关于该图像内容的文字问题,视觉问答旨在从若干候选文字回答中选出正确的答案,本质上是一个分类问题,其核心思想是让图像的Attention的位置随着问题进行变化。

     

    使用CNN从图像中提取图像特征,用RNN从文字问题中提取文本特征,融合视觉和文本特征,最后通过全连接层进行分类。该任务的关键是如何融合这两个模态的特征。 直接融合的方法几种:视觉和文本特征向量拼接、逐元素相加或相乘、内积、外积。

    注意力机制包括视觉注意力(“看哪里”)和文本注意力(“关注哪个词”)两者。DAN将视觉和文本的注意力结果映射到一个相同的空间,并据此同时产生下一步的视觉和文本注意力。

    通过视觉特征向量和文本特征向量的外积,可以捕获这两个模态特征各维之间的交互关系。

    总结

    1.最基本的是文本和图像的encoder模型都要足够的好

    2.特征的融合

    目前有两种融合特征的方式,一个是前融合一个是后融合。 前融合将图像信息与文本信息输入到一个网络进行进一步的encoder,最后再使用任务相关的网络;后融合就是图像文本的encoder出来的特征直接concat,然后输入到任务相关的网络,一般来说前融合的网络要好于后融合。

    3.图文匹配是一个全部句子与全部图像的匹配问题,直接去解这个问题可能相对来说比较困难, 所以一个最基本的想法就是把这个问题分为多个元素。

    Text由不同的单词构成,Image由不同的区域构成,如果能把Text的单词与Image的区域进行一个匹配,那么这个问题就会变得比较简单。

    4.模型训练中可以有很多的trick

     

     

    展开全文
  • SOHU图文匹配竞赛-方案分享

    千次阅读 2017-06-16 13:10:22
    最近参加的sohu图文匹配竞赛在这周二在北京举办了决赛,虽然期末忙没去成,但也全程视频直播围观了比赛。我所在的团队(“中国国家跳水队”,排名如队名,一度严重跳水)获得了初赛第3, 复赛第9, 决赛第6的成绩,正好...

    注:本文为原创文章,如需转载请先私信联系。

    最近参加的sohu图文匹配竞赛在这周二在北京举办了决赛,虽然期末忙没去成,但也全程视频直播围观了比赛。我所在的团队(“中国国家跳水队”,排名如队名,一度严重跳水)获得了初赛第3, 复赛第9, 决赛第6的成绩,正好擦边获得了三等奖。参加这次比赛的初衷是作为机器学习课程的大作业,这两天写了课程报告,所以将报告内容修改了一下进行分享。

    主要分为三个部分,分别为比赛背景介绍,团队主要方案介绍,其他方案介绍。其中最后一部分包含了一些其他队伍在决赛赛后分享时提到的思路。

    比赛背景介绍

    此部分主要内容摘自比赛官网,详细内容见比赛官网

    主要任务

    参赛队伍利用组委会给定的搜狐新闻文本内容和相应的新闻配图等数据集来训练模型(数据集规模为10万条新闻和10万张新闻配图)。比赛要求在给定新的新闻内容集合和新的图片集合之后(数据集规模为2万条新闻和2万张新闻配图),参赛队伍能为每一篇新闻找到匹配度最高的10张图片,并且给出相应的排序。在复赛时,训练数据集的规模提高到了125w。

    测评方案

    根据参赛队伍提供的答案,计算每条数据i的ndcg值ndcg(i),得分为 score=nindcg(i)n ,得分越高排名越高。

    团队主要方案

    思路分析

    拿到这个问题,第一个思路就是设计一个模型来衡量文本和图像之间的相似度。所以我们认为需要分别将文本和图片进行编码,获得相同长度的向量表示,然后再用某种距离度量来衡量两者之间的相似性。在我们的方案中,选择了余弦距离来衡量向量之前的相似度,效果要比欧式距离好。我们的方案思路示意图如下图所示。

    文本编码

    首先是文本编码模型,经过分析我们认为文本编码模型的重点包括如下几点:

    1. 文本向量能有效代表文本内容
    2. 文本向量之间的距离要有区分度
    3. 文本向量不要太长,以节省后续的存储空间以及计算开销

    因此,经过很多不同方法的尝试,最终我们选择了非常简单的一个方案,如下图所示。首先使用中文分词工具对文本进行分词,然后在训练集上训练tf-idf(一种加权词袋模型),将文本转为稀疏的向量表示,最后使用PCA模型对文本向量进行降维,得到一个1000维的文本向量。

    图像编码

    图像编码我们也选择了很简单的方案,使用了VGGnet加上一层额外的全连接层,使得输入为一张图片(224*224),输出为一个1000维的图像向量。

    模型训练

    那么为了使得对应的文本和图片向量有较小的距离,我们对图像编码模型,即VGGnet进行了训练。训练使用的label即图片所对应文本的文本向量,训练使用的loss function为 1-cos.

    模型预测

    在测试集上进行结果预测时,使用文本编码模型对所有文本进行编码,使用图像编码模型对所有图片进行编码。分别得到 200001000 200001000 的矩阵,其中20000为测试集数据数目。然后计算矩阵相似度,即得到一个 2000020000 的矩阵,矩阵的每个元素为一个文本和一个图片之间的余弦距离。对于每个文本,将对应的所有距离进行排序,选择前10的图片作为预测结果。

    实现

    具体的代码因为写的比较乱,就不放出来了,思路其实也比较简单。我们的代码全部都是用python写的。文本分词使用了jieba工具库,词袋和PCA等使用了sklearn的相关函数。图像编码模型使用tensorflow1.0实现。

    其他方案

    上述的方案在初赛表现很不错,获得了第三名的成绩,但到了复赛后效果就变差了,最终只达到了第九名。决赛时我们还添加了OCR算法作为上述模型结果的补充

    OCR

    使用OCR的出发点是很多新闻的配图都包含与新闻文本内容相关的文字,所以使用OCR识别并进行匹配可以对这部分新闻进行图片匹配。我们使用了Google的Tesseract来进行中文OCR的识别。该模型的精度实在是比较一般。最后达到的分数大概只有商业OCR识别的一半不到。但比赛要求使用开源代码,所以我们就使用了Tesseract。因此,我们在决赛时使用的是OCR匹配加上上述图文模型的融合模型。

    对于OCR,其他组有不同的做法,记得有一个组是先训练了一个文本检测器,即先检测文本在图片中的位置,再进行OCR识别,效果就好了很多。

    不同的文本编码方案

    图片编码方面,大家基本都很一致,就是使用CNN网络进行特征提取,使用的网络包括VGG和Inception等。文本编码方面就有不少不同的方案,有直接使用tf-idf向量作为本文向量的,也有先对文本提取关键词,然后进行Fisher Vector编码的(具体细节也记不清了..),还有使用LDA模型的。

    推荐系统方案

    这个方案很有意思,前面有好几组使用了类似的方案,而我们组从头到尾都没想到过这个方案。。。以下对这个思路进行介绍,由于我也没有实现过,所以可能细节会有出入。

    该方案的编码方式与别的方式类似,也是文本编码得到文本向量,图片编码得到图片向量(预训练网络)。在进行测试时,对于一个测试集文本向量,将它与训练集中的所有文本进行距离计算,找到最相似的K个训练集文本,然后就可以得到对应的K个训练集图片向量,再将所有测试集图片向量与这K个训练集图片向量衡量相似度,就可以找到该测试集文本最匹配的10张测试集图片。

    这个思路在决赛上的表现很好,而且应该是训练集越大效果越好(复赛提供了125w的训练数据)。该方法的主要瓶颈在于计算量很大,需要高效的进行索引和匹配,记得有一组将该方法从20小时(Python)优化到了70分钟(C++)。也是非常厉害啊。

    总结

    最后吐槽一下我认为比赛里一些不太合理的地方,首先是 ”专门为某条新闻制作的包含大量文本的配图” 我认为是不应该包含在图文匹配的数据集合里的,因为在用实际场景中使用算法进行新闻图文匹配时,逻辑上文本和图片都是预先存在的。其次是复赛时官方提供的数据集有点太大了,125w的图片-文本数据集对计算资源的要求过高。。复赛后面我们也只能随机抽取一个子集来进行模型训练。

    当然此次比赛收获还是很多的,主要是对文本处理和编码的一些基本做法有了一定的认识,也认识了一些朋友。比赛本身的任务也是非常有趣也非常困难的问题,与VQA和Image Captioning都有点相似,希望之后能看到相关的学术工作~

    展开全文
  • 背景 本篇论文来自北大王选计算机研究所,...2.确定图文对的匹配分数时把视觉干扰(visual distraction)带来的影响考虑进去。这个点比较有意思。 作者针对这两个主要的motivation,也举了一些例子 3列从左到右,依

    背景

    本篇论文来自北大王选计算机研究所,接收于CVPR2020

    动机

    本文的出发点主要是两个:
    1.发掘高阶语义信息(object-predicatesubject triplet (物体之间)主谓宾三元组信息、object-attribute pair 实体-属性对信息)。这个点其实比较常见,这方面的工作已经挺多了
    2.确定图文对的匹配分数时把视觉干扰(visual distraction)带来的影响考虑进去。这个点比较有意思。
    作者针对这两个主要的motivation,也举了一些例子
    在这里插入图片描述
    3列从左到右,依次是caption,ground-truth image,mismatch image.
    3行从上到下,前两行想要说明高阶语义的重要性。物体的属性、句子的谓词等等。最后一行是所谓的视觉干扰,从这个例子不难发现,尽管图像region与文本查询token的相关性很高,但从全局语义上来说是mismatch的。作者把这种现象归结为mismatch图像中还存在着大量与文本无关的显著区域所形成的视觉干扰项在计算匹配分数时被忽略掉了。

    架构

    在这里插入图片描述
    从该图中不难看出,作者对视觉模态、语言模态中的元素分别独立建图,然后使用GCN进行特征提取,这样获取的主要是局部特征。此外还通过LSTM、Faster-RCNN分别提取到全局特征用于后续的融合。

    方法

    build graph

    两个模态的处理方式是类似的,这里就以文本模态为例进行说明。
    首先将文本也就是句子,做成token embedding之后,得到句子的特征表示,这些tokens用作建图的顶点集V。作者把这些顶点分成3类,物体节点(object node)、属性节点(attribute node)和关系节点(relation node,这里的话也就是指谓词)。这个还好说,边集E又是怎么构造的呢?
    在这里插入图片描述
    如果物体 o i o_i oi具备属性 a i a_i ai,则物体节点 o i o_i oi有边与属性节点 a i a_i ai相连。
    如果物体 o i o_i oi与物体 o j o_j oj有联系,那两个物体节点间有边 r i j r_{ij} rij相连。

    疑问

    怎么确定每个节点是属于三个类型中的哪种?
    怎么判定某条边是否存在的?(不能是人为分配的吧,所以应该是学出来的?)
    文中说图像模态中的元素也就是regions,建图的方式同文本一致。问题是,利用目标检测算法,也就检测个物体出来,谓词、属性词这样的节点又怎么来的呢?

    GCN

    在建好了图之后,利用GCN做进一步的特征提取和编码。作者所说的需要捕获的高阶语义信息包括:
    three types of embeddings: relation embedding ,attribute embeddings,object embedding.
    文章说用了多个spatial graph convolutions来生成上述几种embeddings,实际操作时就是使用了几个结构相同的MLP(各自是独立的,参数不共享),生成方式分别如下:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    本质上还是对送入图中的节点特征进行聚合和更新。(讲的故事就说考虑了谓词、属性等)
    再后来,利用更新之后的节点特征做了一个异构图上的attention,得到上图中的attention map(注意力分布图),用来对特征进一步重建。

    Local Graph Matching 局部匹配

    原特征和重建的特征一起作为输入,先做一个multi-perspective matching,学一个多视角的embeddings。之所以是
    局部特征匹配,可能是只用了局部细粒度特征
    在这里插入图片描述
    W是这个匹配函数中的可学习参数。

    Global Matching 全局匹配

    将上面说的,提取到的全局特征用上了。从图上来看,全局特征还是用来生成一个权重分布的。用于对局部匹配生成的embeddings做加权。
    在这里插入图片描述

    Distraction Based re-ranking

    这部分主要讲这种视觉干扰带来的影响怎么考虑进去,加入到最终的结果中表现出来。作者说是利用信息熵的思想
    以text-to-image为例,视觉干扰的影响是怎么评估的呢?
    在最开始的建好的图 G S G_S GS G I G_I GI中,让 G S G_S GS中每个节点对 G I G_I GI中每个节点进行投票,也就是把attention map矩阵当作投票结果。对每一列求和,得到最终的"干扰向量"表示 V d i s t V_{dist} Vdist。通过干扰向量,利用信息熵方法进行"干扰分数"的计算,如下
    在这里插入图片描述
    作者认为,正确匹配的样本做出的干扰向量中的值是比较大的,信息熵也就比较大(包含的信息也多),说明大部分item之间相关性很高;mismatch的例子由于大量与文本无关的干扰区域存在,使得干扰向量中很多0值出现,也即该向量是很稀疏的,包含的信息量也较少。如下面的例子
    在这里插入图片描述
    干扰向量中颜色越深,代表该位置的值越大。我理解是,能够正确匹配的上的图片,里面包含的视觉信息应该是相对要“纯净”的,包含的干扰物体会少一些,所以干扰向量中的0值是很少的(大部分item都高度相关)。mismatch的图片则正好相反,虽然存在匹配度很高的item,但噪声也不少,使得向量中0值很多(代表着无价值信息)。

    这样一来,最终的匹配分数由attention和distraction两部分共同决定:
    在这里插入图片描述

    损失函数

    在这里插入图片描述

    实验结果

    数据集使用的MSCOCO和Flickr30K
    在这里插入图片描述

    结论

    本文探讨并证实了在视觉语义匹配中,**高阶语义信息(关系和属性)**和基于distraction based re-ranking的重要性,给image-text matching任务拓宽了思路。

    展开全文
  • 搜狐图文匹配算法大赛_方案分享

    千次阅读 2018-02-23 00:00:00
    最后吐槽一下我认为比赛里一些不太合理的地方,首先是 ”专门为某条新闻制作的包含大量文本的配图” 我认为是不应该包含在图文匹配的数据集合里的,因为在用实际场景中使用算法进行新闻图文匹配时,逻辑上文本和图片...

     向AI转型的程序员都关注了这个号???


    大数据挖掘DT数据分析  公众号: datadw


    参加这次比赛的初衷是作为机器学习课程的大作业,这两天写了课程报告,所以将报告内容修改了一下进行分享。

    我所在的团队(“中国国家跳水队”,排名如队名,一度严重跳水)获得了初赛第3, 复赛第9, 决赛第6的成绩,正好擦边获得了三等奖。(小编:比赛的时候取个好名字有多重要:)

    主要分为三个部分,分别为比赛背景介绍,团队主要方案介绍,其他方案介绍。其中最后一部分包含了一些其他队伍在决赛赛后分享时提到的思路。

    比赛背景介绍

    此部分主要内容摘自比赛官网,详细内容见比赛官网

    https://biendata.com/competition/luckydata/

    主要任务

    参赛队伍利用组委会给定的搜狐新闻文本内容和相应的新闻配图等数据集来训练模型(数据集规模为10万条新闻和10万张新闻配图)。比赛要求在给定新的新闻内容集合和新的图片集合之后(数据集规模为2万条新闻和2万张新闻配图),参赛队伍能为每一篇新闻找到匹配度最高的10张图片,并且给出相应的排序。在复赛时,训练数据集的规模提高到了125w。

    测评方案

    根据参赛队伍提供的答案,计算每条数据i的ndcg值ndcg(i),得分为 score=nindcg(i)n,得分越高排名越高。


    思路分析

    拿到这个问题,第一个思路就是设计一个模型来衡量文本和图像之间的相似度。所以我们认为需要分别将文本和图片进行编码,获得相同长度的向量表示,然后再用某种距离度量来衡量两者之间的相似性。在我们的方案中,选择了余弦距离来衡量向量之前的相似度,效果要比欧式距离好。我们的方案思路示意图如下图所示。


    文本编码

    首先是文本编码模型,经过分析我们认为文本编码模型的重点包括如下几点:

    1. 文本向量能有效代表文本内容

    2. 文本向量之间的距离要有区分度

    3. 文本向量不要太长,以节省后续的存储空间以及计算开销


    因此,经过很多不同方法的尝试,最终我们选择了非常简单的一个方案,如下图所示。首先使用中文分词工具对文本进行分词,然后在训练集上训练tf-idf(一种加权词袋模型),将文本转为稀疏的向量表示,最后使用PCA模型对文本向量进行降维,得到一个1000维的文本向量。


    图像编码

    图像编码我们也选择了很简单的方案,使用了VGGnet加上一层额外的全连接层,使得输入为一张图片(224*224),输出为一个1000维的图像向量。

    模型训练

    那么为了使得对应的文本和图片向量有较小的距离,我们对图像编码模型,即VGGnet进行了训练。训练使用的label即图片所对应文本的文本向量,训练使用的loss function为 1-cos.


    模型预测

    在测试集上进行结果预测时,使用文本编码模型对所有文本进行编码,使用图像编码模型对所有图片进行编码。分别得到 200001000 和  200001000的矩阵,其中20000为测试集数据数目。然后计算矩阵相似度,即得到一个 2000020000的矩阵,矩阵的每个元素为一个文本和一个图片之间的余弦距离。对于每个文本,将对应的所有距离进行排序,选择前10的图片作为预测结果。

    实现

    具体的代码因为写的比较乱,就不放出来了,思路其实也比较简单。我们的代码全部都是用python写的。文本分词使用了jieba工具库,词袋和PCA等使用了sklearn的相关函数。图像编码模型使用tensorflow1.0实现。

    其他方案

    上述的方案在初赛表现很不错,获得了第三名的成绩,但到了复赛后效果就变差了,最终只达到了第九名。决赛时我们还添加了OCR算法作为上述模型结果的补充

    OCR

    使用OCR的出发点是很多新闻的配图都包含与新闻文本内容相关的文字,所以使用OCR识别并进行匹配可以对这部分新闻进行图片匹配。我们使用了Google的Tesseract来进行中文OCR的识别。该模型的精度实在是比较一般。最后达到的分数大概只有商业OCR识别的一半不到。但比赛要求使用开源代码,所以我们就使用了Tesseract。因此,我们在决赛时使用的是OCR匹配加上上述图文模型的融合模型。

    对于OCR,其他组有不同的做法,记得有一个组是先训练了一个文本检测器,即先检测文本在图片中的位置,再进行OCR识别,效果就好了很多。

    不同的文本编码方案

    图片编码方面,大家基本都很一致,就是使用CNN网络进行特征提取,使用的网络包括VGG和Inception等。文本编码方面就有不少不同的方案,有直接使用tf-idf向量作为本文向量的,也有先对文本提取关键词,然后进行Fisher Vector编码的(具体细节也记不清了..),还有使用LDA模型的。

    本文来自 微信公众号 datadw  【大数据挖掘DT数据分析】

    推荐系统方案

    这个方案很有意思,前面有好几组使用了类似的方案,而我们组从头到尾都没想到过这个方案。。。以下对这个思路进行介绍,由于我也没有实现过,所以可能细节会有出入。

    该方案的编码方式与别的方式类似,也是文本编码得到文本向量,图片编码得到图片向量(预训练网络)。在进行测试时,对于一个测试集文本向量,将它与训练集中的所有文本进行距离计算,找到最相似的K个训练集文本,然后就可以得到对应的K个训练集图片向量,再将所有测试集图片向量与这K个训练集图片向量衡量相似度,就可以找到该测试集文本最匹配的10张测试集图片。

    这个思路在决赛上的表现很好,而且应该是训练集越大效果越好(复赛提供了125w的训练数据)。该方法的主要瓶颈在于计算量很大,需要高效的进行索引和匹配,记得有一组将该方法从20小时(Python)优化到了70分钟(C++)。也是非常厉害啊。

    总结

    最后吐槽一下我认为比赛里一些不太合理的地方,首先是 ”专门为某条新闻制作的包含大量文本的配图” 我认为是不应该包含在图文匹配的数据集合里的,因为在用实际场景中使用算法进行新闻图文匹配时,逻辑上文本和图片都是预先存在的。其次是复赛时官方提供的数据集有点太大了,125w的图片-文本数据集对计算资源的要求过高。。复赛后面我们也只能随机抽取一个子集来进行模型训练。

    当然此次比赛收获还是很多的,主要是对文本处理和编码的一些基本做法有了一定的认识,也认识了一些朋友。比赛本身的任务也是非常有趣也非常困难的问题,与VQA和Image Captioning都有点相似,希望之后能看到相关的学术工作~

    via http://blog.csdn.net/wzmsltw/article/details/73330439



    人工智能大数据与深度学习

    搜索添加微信公众号:weic2c

    长按图片,识别二维码,点关注



    大数据挖掘DT数据分析

    搜索添加微信公众号:datadw


    教你机器学习,教你数据挖掘

    长按图片,识别二维码,点关注


    展开全文
  • 主要介绍了PHP使用微信开发模式实现搜索已发送图文匹配关键字回复的方法,涉及php针对微信json格式数据的解析与正则匹配相关操作技巧,需要的朋友可以参考下
  • 主要给大家介绍了关于mybatis查询匹配机制的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • 匹配项中实现图文混排效果。 很简单的一个例子
  • 5、Scala 的模式匹配  Scala 有一个十分强大的模式匹配机制,可以应用到很多场合:如 switch 语句、类型检查等。 并且 Scala 还提供了样例类,对模式匹配进行了优化,可以快速进行匹配    5.1、匹配字符串 ...
  • 问题描述:字串匹配搜索 假设现在我们面临这样一个问题:有一个文本串S,和一个模式串P,现在要查找P在S中的位置,怎么查找呢? 暴力匹配算法 如果用暴力匹配的思路,并假设现在文本串S匹配到 i 位置,模式串P匹配到...
  • server_name与host匹配优先级如下: 1、完全匹配 2、通配符在前的,如*.test.com 3、在后的,如www.test.* 4、正则匹配,如~^.www.test.com$ 如果都不匹配 1、优先选择listen配置项后有default或default...
  • 代码+图文讲解spark中scala常用正则匹配
  • 这次给大家带来使用正则多行模式与单行模式的图文详解,使用正则多行模式与单行模式的注意事项有哪些,下面就是实战案例,一起来看一下。在Expresso中,测试“多行模式”测试一注意:这里样例文本中3eeeee后面没有...
  • 用户发送关键字,搜索相应的图文进行回复。
  • 最近遇到一个字符串内查找指定子字符串出现位置的算法问题,最后虽然用暴力匹配法解决了问题,但是时间效率非常差。看到网上说可以用KMP模式匹配算法进行优化,搜了很多资料才基本弄懂,这里记录一下自己的理解和...
  • 如“ol+”能匹配“ol”及“oll”、“olll”,但不能匹配“o” ? :匹配前面的字符零次或一次,例如“do(es)?”能匹配“do”或者“does”,”?”等效于”{0,1}” . :匹配除“\n”之外的任何单个字符,若要匹配包括...
  • 二,朴素的模式匹配算法 找一个单词在一篇文章(相当于一个大字符串)中的定位问题。这种子串的定位操作通常称做串的模式匹配,应该算是串中最重要的操作之一。 假设我们要从下面的主串 S="goodgoogle”中,找到T=...
  • Anaconda:根据Anaconda的CUDA版本去安装对应匹配的NVIDIA驱动程序图文教程之详细攻略 目录 根据Anaconda的CUDA版本去安装对应匹配的NVIDIA驱动程序图文教程之详细攻略 一、第一次安装失败记录 1.1、找到...
  • 全部比较的匹配结果都成功,文本中的符号是匹配的。 2、检查a{b(c[de)f}  扫描到的字符  栈的操作  栈中内容  匹配结果 a - { 入栈(Push) { b - { ...
  • 测色仪取色器颜色识别器含潘通劳尔色卡匹配色差计详细图文教程 详细视频教程如下: 视频教程 一、测试仪外观说明 POWER按键:电源开关 CAL按键:校准功能按键 ON/OFF按键:控制开始颜色识别和结束颜色识别 ...
  • KMP算法部分匹配表及代码图文解释——别找了,简单易懂,真良心 ** 笔者今天看网课学习了KMP算法,懂了大致的思想后自己敲了一遍代码,de了几遍bug后发现没啥问题。然后去看了网课的标答,发现我的代码还是太low了,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,649
精华内容 4,259
关键字:

图文匹配