图像处理方向的博士 - CSDN
  • 转自 在图像去雾这个领域,几乎...作者何凯明博士,2007年清华大学毕业,2011年香港中文大学博士毕业,可谓是功力深厚,感叹于国内一些所谓博士的水平,何这样的博士才可以真正叫做Doctor。  关于何博士的一些资料
    
    

    在图像去雾这个领域,几乎没有人不知道《Single Image Haze Removal Using Dark Channel Prior》这篇文章,该文是2009年CVPR最佳论文。作者何凯明博士,2007年清华大学毕业,2011年香港中文大学博士毕业,可谓是功力深厚,感叹于国内一些所谓博士的水平,何这样的博士才可以真正叫做Doctor。

         关于何博士的一些资料和论文,大家可以访问这里:http://research.microsoft.com/en-us/um/people/kahe/

         最开始接触何的这篇论文是在2011年,说实在的那个时候,只是随便浏览了下,看到里面的soft matting过程比较复杂,并且执行速度非常慢,就没有什么大的兴趣。最近又偶尔拾起,仔细研读,觉得论文的推理步骤特别清晰,讲解很到位。恰好适逢浏览到其另外一篇文章《Guided Image Filtering》 ,其中提到了可以用导向滤波来代替soft matting的过程,且速度很快,因此,我对去雾的兴趣算法又大大提高了。  

         本文主要上是对《Single Image Haze Removal Using Dark Channel Prior》的翻译、整理、及部分解释。如果您的英文水平好,建议看原文可能来的更爽些。

        一、论文思想的简单描述 

         首先看看暗通道先验是什么:

           在绝大多数非天空的局部区域里,某一些像素总会有至少一个颜色通道具有很低的值。换言之,该区域光强度的最小值是个很小的数。

      我们给暗通道一个数学定义,对于任意的输入图像J,其暗通道可以用下式表达:

                                        

          式中Jc表示彩色图像的每个通道 ,Ω(x)表示以像素X为中心的一个窗口。 

        式(5)的意义用代码表达也很简单,首先求出每个像素RGB分量中的最小值,存入一副和原始图像大小相同的灰度图中,然后再对这幅灰度图进行最小值滤波,滤波的半径由窗口大小决定,一般有WindowSize = 2 * Radius + 1;          

          暗通道先验的理论指出:

                                                                           

         实际生活中造成暗原色中低通道值主要有三个因素:a)汽车、建筑物和城市中玻璃窗户的阴影,或者是树叶、树与岩石等自然景观的投影;b)色彩鲜艳的物体或表面,在RGB的三个通道中有些通道的值很低(比如绿色的草地/树/植物,红色或黄色的花朵/叶子,或者蓝色的水面);c)颜色较暗的物体或者表面,例如灰暗色的树干和石头。总之,自然景物中到处都是阴影或者彩色,这些景物的图像的暗原色总是很灰暗的。

          我们抛开论文中列举的那些例子,自己从网上找几幅没有雾的风景照,看看结果如下:

            

            

            

                          一些无雾的图片                                                                                  其暗通道

    在看看一些有雾的图的暗通道:

          

          

              一些有雾的图片                                                                                  其暗通道

      上述暗通道图像均使用的窗口大小为15*15,即最小值滤波的半径为7像素。

          由上述几幅图像,可以明显的看到暗通道先验理论的普遍性。在作者的论文中,统计了5000多副图像的特征,也都基本符合这个先验,因此,我们可以认为其实一条定理。

          有了这个先验,接着就需要进行一些数学方面的推导来最终解决问题。

      首先,在计算机视觉和计算机图形中,下述方程所描述的雾图形成模型被广泛使用:

                                                       

       其中,I(X)就是我们现在已经有的图像(待去雾的图像),J(x)是我们要恢复的无雾的图像,A是全球大气光成分, t(x)为透射率。现在的已知条件就是I(X),要求目标值J(x),显然,这是个有无数解的方程,因此,就需要一些先验了。

      将式(1)稍作处理,变形为下式:

                                                        

        如上所述,上标C表示R/G/B三个通道的意思。

        首先假设在每一个窗口内透射率t(x)为常数,定义他为,并且A值已经给定,然后对式(7)两边求两次最小值运算,得到下式:

                                      

        上式中,J是待求的无雾的图像,根据前述的暗原色先验理论有:

                                                   

         因此,可推导出:

                                                             

        把式(10)带入式(8)中,得到:

                                                     

        这就是透射率的预估值。

        在现实生活中,即使是晴天白云,空气中也存在着一些颗粒,因此,看远处的物体还是能感觉到雾的影响,另外,雾的存在让人类感到景深的存在,因此,有必要在去雾的时候保留一定程度的雾,这可以通过在式(11)中引入一个在[0,1] 之间的因子,则式(11)修正为:

                                                   

         本文中所有的测试结果依赖于:  ω=0.95。

         上述推论中都是假设全球达气光A值时已知的,在实际中,我们可以借助于暗通道图来从有雾图像中获取该值。具体步骤如下:

          1) 从暗通道图中按照亮度的大小取前0.1%的像素。

              2) 在这些位置中,在原始有雾图像I中寻找对应的具有最高亮度的点的值,作为A值。

         到这一步,我们就可以进行无雾图像的恢复了。由式(1)可知:  J = ( I - A)/t + A  

         现在I,A,t都已经求得了,因此,完全可以进行J的计算。

         当投射图t 的值很小时,会导致J的值偏大,从而使淂图像整体向白场过度,因此一般可设置一阈值T0,当t值小于T0时,令t=T0,本文中所有效果图均以T0=0.1为标准计算。

         因此,最终的恢复公式如下:

                                    

         当直接用上述理论进行恢复时,去雾的效果其实也是很明显的,比如下面一些例子:

           

           

                     有雾图                                             去雾图

          注意到第一幅图的原图两个字的周围明显有一块不协调的地方,而第二图顶部水平方向似乎有一块没有进行去雾处理,这些都是由于我们的透射率图过于粗糙了。

          要获得更为精细的透射率图,何博士在文章中提出了了soft matting方法,能得到非常细腻的结果。但是他的一个致命的弱点就是速度特慢,不使用于实际使用。在2011年,何博士又除了一片论文,其中提到了导向滤波的方式来获得较好的透射率图。该方法的主要过程集中于简单的方框模糊,而方框模糊有多重和半径无关的快速算法。因此,算法的实用性特强,关于这个导向滤波算法大家在何博士的网站可以自己去研习下,除了在去雾方面外,还有着其他多方面的应用,这部分本文不多述。

         使用了导向滤波后的去雾效果:

         

          

                使用原始的预估透射率图                                 使用导向滤波后的透射率图

          

                   (a) 原图                                  (b)  去雾结果图

          

                    (c)    暗通道图                          (d) 导向图 (原始图像的灰度图)

          

                    (e)   预估透射率图                       (f)   使用导向滤波后的透射率图

      二、各参数对去雾结果的影响

      第一:窗口的大小。这个对结果来说是个关键的参数,窗口越大,其包含暗通道的概率越大,暗通道也就越黑。我们不去从理论角度分析,从实践的效果来看,似乎窗口越大,去雾的效果越不明显,如下图所示:

            

                                  (a) 原始图像                            (b) 窗口大小=11

          

                  (c) 窗口大小=21                         (d) 窗口大小=101 

      我的建议是窗口大小在11-51之间,即半径在5-25之间。

         式(12)中的ω具有着明显的意义,其值越小,去雾效果越不明显,举例如下:

          

                                        (a) 原始图像                                   (b)    ω=0.5         

              

                                           (c)    ω=0.8                                                                       (d)    ω=1 

        三:编码的步骤

      如果你仔细的分析了原文的细路,加上适当的参考,编码其实并不是很困难。

      1)根据原始图像求暗通道,参考代码如下:

        for (Y = 0, DarkPt = DarkChannel; Y < Height; Y++)
        {
            ImgPt = Scan0 + Y * Stride;
            for (X = 0; X < Width; X++)
            {
                Min = *ImgPt;
                if (Min > *(ImgPt + 1)) Min = *(ImgPt + 1);
                if (Min > *(ImgPt + 2)) Min = *(ImgPt + 2);
                *DarkPt = Min;
                ImgPt += 3;
                DarkPt++;
            }
        }
    
        MinFilter(DarkChannel, Width, Height, Radius);
    

        这里需要注意的是MinFilter算法的快速实现,提供一篇论文供有需要的朋友学习:STREAMING MAXIMUM-MINIMUM FILTER USING NO MORE THAN THREE COMPARISONS PER ELEMENT 。这个算法的时间复杂度是O(1)的。

          2)按文中所描述的算法自动获得全球大气光的值。

         这里说明一点,原始论文中的A最终是取原始像素中的某一个点的像素,我实际上是取的符合条件的所有点的平均值作为A的值,我这样做是因为,如果是取一个点,则各通道的A值很有可能全部很接近255,这样的话会造成处理后的图像偏色和出现大量色斑。原文作者说这个算法对天空部分不需特备处理,我实际发现该算法对有天空的图像的效果一般都不好。天空会出现明显的过渡区域。作为解决方案,我增加了一个参数,最大全球大气光值,当计算的值大于该值时,则就取该值。  

               

                            原图                                                         未对A值做限定                  最大A值限定为220

           3) 按式(12)计算预估的透射率图。

      在式(12)中,每个通道的数据都需要除以对应的A值,即归一化,这样做,还存在一个问题,由于A的选取过程,并不能保证每个像素分量值除以A值后都小于1,从而导致t的值可能小于0,而这是不容许的,原文作者并没有交代这一点是如何处理的。我在实际的编码中发现,如果真的这样做了,其效果也并不是很理想 ,因此,我最后的办法是在式(12)中,不考虑A的计算。

            4)计算导向滤波图。

       这里可以直接用原始的图像做导向图,当然也可以用其灰度图,但是用RGB导向图在下一步的计算中会占用比较大的时间。

            5)按照《Guided Image Filtering》论文中的公式(5)、(6)、(8)编码计算获得精细的透射率图。

        网络上有这个算法的 matlab代码可下载的,这里贴部分代码:

    复制代码
      function q = guidedfilter(I, p, r, eps)
      %   GUIDEDFILTER   O(1) time implementation of guided filter.
      %
      %   - guidance image: I (should be a gray-scale/single channel image)
      %   - filtering input image: p (should be a gray-scale/single channel image)
      %   - local window radius: r
      %   - regularization parameter: eps
    
      [hei, wid] = size(I);
      N = boxfilter(ones(hei, wid), r); % the size of each local patch; N=(2r+1)^2 except for boundary pixels.
    
      % imwrite(uint8(N), 'N.jpg');
      % figure,imshow(N,[]),title('N');
      
    
      mean_I = boxfilter(I, r) ./ N;
      mean_p = boxfilter(p, r) ./ N;
      mean_Ip = boxfilter(I.*p, r) ./ N;
      cov_Ip = mean_Ip - mean_I .* mean_p; % this is the covariance of (I, p) in each local patch.
    
      mean_II = boxfilter(I.*I, r) ./ N;
      var_I = mean_II - mean_I .* mean_I;
    
      a = cov_Ip ./ (var_I + eps); % Eqn. (5) in the paper;
      b = mean_p - a .* mean_I; % Eqn. (6) in the paper;
    
      mean_a = boxfilter(a, r) ./ N;
      mean_b = boxfilter(b, r) ./ N;
    
      q = mean_a .* I + mean_b; % Eqn. (8) in the paper;
      end
    复制代码

           由上面的代码,可见,主要的工作量在均值模糊上,而均值模糊是个很快速的算法,关于均值模糊的优化可参考我以前的文章:彩色图像高速模糊之懒惰算法。

          还有一点就是,上述计算需要在[0,1]范围内进行,也就是说导向图和预估的透射率图都必须从[0,255]先映射到[0,1]在进行计算。

          关于guidedfilter中的半径r值,因为在前面进行最小值后暗通道的图像成一块一块的,为了使透射率图更加精细,建议这个r的取值不小于进行最小值滤波的半径的4倍,如下图所示:

             

              (a)  r=最小值滤波半径的2倍                        (b) r=最小值滤波半径的8倍

          可以看到,当r比较小的时候,在透射率图中基本看不到什么细节信息,因此恢复处的图像边缘处不明显。

          参数eps的取值也有所讲究,他主要是为了防止计算中除以0的错误以及为了使得某些计算结果不至于过大,一般建议取值0.001或者更小。

          如果使用的彩色RGB图做导向图,计算时间上会增加不少,所的到的透射率图的边缘会比灰度图所处理的保留了更多的细节,效果上略微比灰度图好,如下所示:

             

                  (a) 原图                                                                                    (b)预估的透射率图

             

                           (c)使用灰度图为导向图得到的透射率图                           (d)使用RGB图为导向图得到的透射率图

             

               (e)灰度图为导向图对应的去雾效果                               (f)RGB图导向图对应的去雾效果

           以RGB图为导向图的计算中,涉及到3*3部分矩阵求逆的过程,如果用非matlab语言写,可以先借助于matlab的符号计算功能,以及其中的符号计算命令simple,把计算结果算出来,然后再再其他高级语言中实现。

           (6) 按式(22)进行无雾图像的恢复。

     四、其他一些去雾效果图

          

              

              

              

                                  原图                                                 去雾效果图                                                      透射率图

          上图中最后一副图我连续做了两次去雾的处理。 

          在原文中,有这样一段话:

      Since the scene radiance is usually not as bright as the atmospheric light, the image after haze removal looks dim. So we increase the exposure of J(x) for
    display.

         意思就是说直接去雾后的图像会比原始的暗,因此在处理完后需要进行一定的曝光增强,但作者没有说明其是如何增强的, 因此,这里的图和他论文的效果有所不同时正常的。一般在去雾处理后再用自动色剂之类的算法增强下会获得比较满意的结果,如下图:

                  

              原图                 去雾后              +自动色阶

          去雾算法目前也有着众多其他的方式,不过我所接触的,很多都是以这个为基础,因此,先弄会这个为研究其他的去雾算法能奠定坚实的基础。

          网络上有一些比较好的暗原色先验去雾的matlab代码:比如和本文基本对应的matlab资源:http://files.cnblogs.com/Imageshop/cvpr09defog%28matlab%29.rar

      后记:稍微有看了几篇去雾的文章,基本上都是围绕着获得透视率图做文章,比如一些文章讲用联合双边滤波方式获得精细的透射率,从我个人浅薄的认识中,我觉得去雾已基本上跳不出暗原色这个范畴了。

          我对双边滤波算法那也做了实验,发现这个的效果也还行,就是速度慢了很多,双边滤波的快速算法其实快不起来的,所以这个的实用性不高,我选择了一些图像做比较:

             

                                        (a) 原图                                                               (b)   联合双边滤波去雾图

             

                            (c) 导向滤波获得透射率图                                                   (d)联合双边滤波透射率图(Sigmad=SigmaR=100)

           上图可以很明显的看出联合双边滤波的透射率图没有导向滤波的精细,但比原始的粗糙的透射率图还是好很多,过渡很光滑,因此,也能获得不错的视觉去雾效果。

           联合双边滤波器中的算法是参考了OpenCv中相关函数写的。

         和平常一样,提供一个可供大家测试效果的程序: 基于暗原色先验的图像去雾演示程序

        

        我分别用VB6和C#做了个程序,两个程序都已经通过各自的语言方式进行了优化,算法部分编码是一样的,C#运行速度大约是VB6的1.8倍。

        在处理速度上,比 matalb的快了很多倍,在I3的笔记本电脑上,一副1024*768的图像去雾时间大约在150ms内(以灰度图为导向图)。

        后记补充修正:在后续对该算法的关注中,发现自己在前面做出了一个错误的判断,就是关于式(11)中/A的操作。我在前面说这个除法会引起一些问题,因此,去除了这一步。但是后来的实践证明正是有了这一步,对于对比度低的图像才可以获得很好的去雾高对比度图。

        前面说的/A操作可能会导致t的值小于0,这种情况就可以把t的值直接设置为0来解决。

        还有一个事情就是式(11)严格的来说是要对原始图像的每个通道进行归一化后,再取每个通道R/G/B值的最小值得到中间图,然后对这个中间图进行指定半径的最小值滤波后,通过11式得到粗糙的透射率图,那么这样就需要多不少计算,我在实际中发现如果直接用前面的暗通道图/A进行操作,两者的效果区别不明显,因此,可用这种简便的方式。

       

     上图是一副经典的测试图,虽然取得了比较好的效果,不过似乎马路那一块的效果不如一些其他人公开的成果那么好。

       

         这也是一副比较常见的测试图,该图也是紧用去雾获得结果,未做任何的后处理,同CSDN一个的案例库:图像去雾的算法研究中的效果相比,在整幅图像的对比和和协调性上都要好一个档次。

         再如下图,也比CSDN那个案例库中的效果要好很多。

         

         还有:

      

      

        总结:我对这种去雾算法的效果还是很满意的, 效果和速度都还比较合适。

        附件的测试程序已经同步更新。

     

    *****************************基本上我不提供源代码,但是我会尽量用文字把对应的算法描述清楚或提供参考文档*********************

    *************************************因为靠自己的努力和实践写出来的效果才真正是自己的东西,人一定要靠自己****************************

    *********************************作者: laviewpbt   时间: 2013.8.23    联系QQ:  33184777  转载请保留本行信息************************

    展开全文
  • 名称 简介 类别 级别 ... ICCV: IEEE International Conference on Computer Vision ... 领域顶级国际会议,录取率20%左右,2年一次,中国大陆每年论文数不超过10篇 ...

    名称

    简介

    类别

    级别

    ICCV: IEEE International Conference on Computer Vision

    领域顶级国际会议,录取率20%左右,2年一次,中国大陆每年论文数不超过10篇

    计算机视觉,模式识别,多媒体计算

    rank1

    CVPR: IEEE Conf on Comp Vision and Pattern Recognition

    领域顶级国际会议,录取率25%左右,每年一次,中国大陆每年论文数不超过20篇

    模式识别,计算机视觉,多媒体计算

    rank1

    ECCV: European Conference on Computer Vision

    领域顶级国际会议,录取率25%左右,2年一次,中国大陆每年论文数不超过20篇

    模式识别,计算机视觉,多媒体计算

    rank1

    DCC: Data Compression Conference

    领域顶级国际会议,录取率很低,每年一次,目前完全国内论文极少

    数据压缩

    rank1

    ICML: International Conference on Machine Learning

    领域顶级国际会议,录取率25%左右,2年一次,目前完全国内论文很少

    机器学习,模式识别

    rank1

    NIPS: Neural Information Processing Systems

    领域顶级国际会议,录取率20%左右,每年一次,目前完全国内论文极少(不超过5篇)

    神经计算,机器学习

    rank1

    ACM MM: ACM Multimedia Conference

    领域顶级国际会议,全文的录取率极低,但Poster比较容易

    多媒体技术,数据压缩

    rank1

    IEEE ICIP: International conference on Image Processing

    图像处理领域最具影响力国际会议,一年一次

    图像处理

    rank1

    IEEE ICME: International Conference on Multimedia and Expo

    多媒体领域重要国际会议,一年一次

    多媒体技术

    rank2

    CGI:Computer Graphics International

    国际图形学会议,一年一次

    图形学领域

    rank1

    SIGGRAPH: ACM SIGGRAPH Conference

    计算机图形学顶级国际会议,ACM主办,每年一次,几万人参加会议,论文录用率小于20%

    计算机图形学

    rank 1

    EUROGRAPHICS: The Annual Conference of the European Association for Computer Graphics

    欧洲举办的国际图形学会议,面向世界。接受率现在也有差不多20%

    计算机图形学

    rank 1

    ICML: International Conference on Machine Learning

    机器学习领域中的顶级会议

    机器学习

    rank 1

    IJCAI: International Joint Conference on AI

    人工智能领域的顶级会议。

    人工智能

    rank1

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    CV方面:http://www.cvpapers.com/index.html 

    NIPS:  http://books.nips.cc/ 

    JMLR(期刊): http://jmlr.csail.mit.edu/papers/ 

    很有用的学习网站:

    1、毕业于荷兰特温特大学的Dirk-Jan Kroon博士,在Mathworks的FileExchange上的链接,这个链接里有他用Matlab写成的近百个程序源码,质量非常高。
    http://www.mathworks.com/matlabcentral/fileexchange/authors/29180
    2、这是研究 image matting必去的一个网站,里面有大量关于这个主题内容的介绍,包括最新的成果,评测和对比。
    http://www.alphamatting.com/
    3、IPOL is a research journal of image processing and image analysis. Each article contains a text on an algorithm and its source code。讨论了超过20个大的Topics,具体每个Topics里面还有许多具体的实现分支,配有可供研究的源代码。研究图像处理不可不看的网站。
    http://www.ipol.im/
    4、LIBROW,口号是The Helpful Mathematics,里面可以找到很多基础算法文章,例如:滤波,fft等及实例。
    http://www.librow.com/articles

    大牛学者主页:

    1、MIT Freeman教授的主页,里面有他及学生的研究成果及项目链接,绝对的大神级。

    http://billf.mit.edu/

    2、Michal Irani,最有影响力的研究成果:超分辨率。”Improving resolution by image registration”提出了用迭代的、反向投影的方法来解决图像放大的问题,是图像超分辨率最经典的算法。

    http://www.weizmann.ac.il/math/irani/

    3、何凯明的博客,清华博士,ICCV最佳论文获得者

    http://kaiminghe.com/

    医学图像处理方面:

    以下是计算机视觉领域的研究机构和学者大汇总,涉及了这个学科的很多方面

    1.USC Computer Vision Group:南加大,多目标跟踪/检测等;

    2.ETHZ Computer Vision Laboratory:苏黎世联邦理工学院,欧洲最好的几个CV/ML研究机构;

    3.Helmut Grabner:Online Boosting and Vision的作者,tracking by online feature selection的早期经典,貌似现在不是很活跃了,跑去创业了;

    4.Robert T. Collins:PSU,也是跟踪界的大牛;

    5.Ying Wu:美国西北大学,华人学者中的翘楚;

    6.Junsong Yuan:NTU,上面Wu老师的学生;

    7.James W. Davis:俄亥俄州立,视频监控;

    8. The Australian Centre for Visual Technologies:阿德莱德大学的CV组,最近也是exceedingly active & fruitful;

    9.Chunhua Shen:属上面的ACVT组,最近非常活跃;

    10.Xi Li:同属ACVT,之前是中科院的PHD,跟踪方面的论文很多,有理论深度;

    11.Haibin Ling:天普大学,L1-Tracker及后续扩展,源码分享;

    12.Learning, Recognition, and Surveillance:奥地利 TU Graz,在线学习,跟踪/检测等,active!源码分享;

    13.Statistical Visual Computing Laboratory:UCSD,光听名字就很学术吧,Saliency研究很有名;

    14.David Ross:多伦多大学,IVT的作者,跟踪中Generative表观的经典中的经典,提供源码,IVT的代码结构被后来很多人引用,值得一读;

    15.EPFL, Computer Vision Laboratory:洛桑理工的学院,和上面的的ETHZ CV lab同样是欧洲最好的CV研究大组;

    16.Jamie Shotton:属微软剑桥研究中心,Decision/Regression Forests

    17.Sinisa Todorovic:俄勒冈州立,行为分析等;

    18.Shi Jianbo:大名鼎鼎的Good Feature to Track作者,目前方向行为分析和多目标跟踪等;

    19.Shai Avidan:特拉维夫大学,大牛级,可算是Tracking-by-detection的开创者,Ensemble Tracking, SVM Tracking;

    20.Visual Information Processing and Learning:中科院计算所,山世光老师的研究组,不需介绍了吧;

    21.Shaogang Gong:Queen Mary University of London,各种PAMI,IJCV;

    22.Yang Jian:南京理工大学,2DPCA,人脸识别;

    23.CALVIN:weakly supervised learning,objectness;

    24.Learning & Vision Group:NUS,稀疏表示;

    26.Xiaogang Wang:CUHK,active & fruitful,行人检测,群体行为分析;

    27.Zhou, Bolei:上面Wang老师硕士研究生,群体行为,看看人家的Publications已经轻松甩国内博士好几条街;

    28.Computational Vision Group:Leader--Deva Ramanan

    29.Zhang Lei:香港理工,稀疏表示,人脸识别,可以算大中华区比较活跃的研究组了,几乎每篇论文都有对应源码

    30.Zhang Kaihua:上面Zhang老师学生,Compressive Tracking

    31.Pramod Sharma:离线训练检测器的在线自适应,貌似是个不错的topic;

    32.Loris Bazzani:person re-id,他的SDALF(code)描述子经常被用来做为比较对象,说明还是有参考价值的;

    33.Pedro Felzenszwalb:布朗大学,目标检测,新新N人一枚;

    34.Vijayakumar Bhagavatula:IEEE Fellow, correlation filters;

    35.Laurens van der Maaten:MLer.

    牛人主页(主页有很多论文代码)

    Serge Belongie at UC San Diego

    Antonio Torralba at MIT

    Alexei Ffros at CMU

    Ce Liu at Microsoft Research New England

    Vittorio Ferrari at Univ.of Edinburgh

    Kristen Grauman at UT Austin

    Devi Parikh at  TTI-Chicago (Marr Prize at ICCV2011)

    John Wright at Columbia Univ.

    Piotr Dollar at CalTech

    Boris Babenko at UC San Diego

    David Ross at Google/Youtube

    David Donoho at Stanford Univ.

    William T. Freeman at MIT

    Roberto Cipolla at Cambridge

    David Lowe at Univ. of British Columbia

    Mubarak Shah at Univ. of Central Florida

    Yi Ma at MSRA

    Tinne Tuytelaars at K.U. Leuven

    Trevor Darrell at U.C. Berkeley

    Michael J. Black at Brown Univ.

     

    重要研究组:

    Computer Vision Group at UC Berkeley

    Robotics Research Group at Univ. of Oxford

    LEAR at INRIA

    Computer Vision Lab at Stanford

    Computer Vision Lab at EPFL

    Computer Vision Lab at ETH Zurich

    Computer Vision Lab at Seoul National Univ.

    Computer Vision Lab at UC San Diego

    Computer Vision Lab at UC Santa Cruz

    Computer Vision Lab at Univ. of Southern California

    Computer Vision Lab at Univ. of Central Florida

    Computer Vision Lab at Columbia Univ.

    UCLA Vision Lab

    Motion and Shape Computing Group at George Mason Univ.

    Robust Image Understanding Lab at Rutgers Univ.

    Intelligent Vision Systems Group at Univ. of Bonn

    Institute for Computer Graphics and Vision at Graz Univ. of Tech.

    Computer Vision Lab. at Vienna Univ. of Tech. 

    Computational Image Analysis and Radiology at Medical Univ. of Vienna

    Personal Robotics Lab at CMU

    Visual Perception Lab at Purdue Univ.

    2 个人、研究机构链接

    (1)googleResearch; http://research.google.com/index.html
    (2)MIT博士,汤晓欧学生林达华;http://people.csail.mit.edu/dhlin/index.html
    (3)MIT博士后Douglas Lanman; http://web.media.mit.edu/~dlanman/
    (4)opencv中文网站;http://www.opencv.org.cn/index.php/%E9%A6%96%E9%A1%B5
    (5)Stanford大学vision实验室; http://vision.stanford.edu/research.html
    (6)Stanford大学博士崔靖宇; http://www.stanford.edu/~jycui/
    (7)UCLA教授朱松纯; http://www.stat.ucla.edu/~sczhu/
    (8)中国人工智能网; http://www.chinaai.org/
    (9)中国视觉网; http://www.china-vision.net/
    (10)中科院自动化所; http://www.ia.cas.cn/
    (11)中科院自动化所李子青研究员; http://www.cbsr.ia.ac.cn/users/szli/
    (12)中科院计算所山世光研究员; http://www.jdl.ac.cn/user/sgshan/
    (13)人脸识别主页; http://www.face-rec.org
    (14)微软亚洲研究院计算机视觉研究组; http://research.microsoft.com/en-us/groups/vc/
    (15)微软剑桥研究院ML与CV研究组; http://research.microsoft.com/en-us/groups/mlp/default.aspx

    (16)研学论坛; http://bbs.matwav.com/
    (17)美国Rutgers大学助理教授刘青山;http://www.research.rutgers.edu/~qsliu/
    (18)香港中文大学助理教授王晓刚; http://www.ee.cuhk.edu.hk/~xgwang/
      (19)香港中文大学多媒体实验室(汤晓鸥); http://mmlab.ie.cuhk.edu.hk/

      (20)浙江大学图像技术研究与应用(ITRA)团队:http://www.dvzju.com/

    (21)顶级民用机器人研究小组Porf.Gary领导的Willow Garage:http://www.willowgarage.com/

    (22)上海交通大学图像处理与模式识别研究所:http://www.pami.sjtu.edu.cn/

    (23)上海交通大学计算机视觉实验室刘允才教授:http://www.visionlab.sjtu.edu.cn/

    (24)清华大学电子工程系智能图文信息处理实验室(丁晓青教授):http://ocrserv.ee.tsinghua.edu.cn/auto/index.asp

    (25)美国普渡大学机器人视觉实验室:https://engineering.purdue.edu/RVL/Welcome.html

    (26)瑞士ETH-Zurich大学CV实验室:http://www.vision.ee.ethz.ch/boostingTrackers/index.htm

    (27)微软CV研究员张正友:http://research.microsoft.com/en-us/um/people/zhang/

    (28)中科院自动化所医学影像研究室:http://www.3dmed.net/

    (29)图片检索国际竞赛PASCAL VOC(微软剑桥研究院组织):http://pascallin.ecs.soton.ac.uk/challenges/VOC/

    (30)机器视觉开源处理库汇总:http://archive.cnblogs.com/a/2217609/

    (31)东软基于CV的汽车辅助驾驶系统:http://www.neusoft.com/cn/solutions/1047/

    (32)康奈尔大学视觉与图像分析组:http://www.via.cornell.edu/ 医学图像处理

    (33)密西根州立大学生物识别研究组:http://www.cse.msu.edu/biometrics/ 人脸识别、指纹识别、图像检索
    (34)柏林科技大学计算机视觉与遥感实验室:

    http://www.cv.tu-berlin.de/menue/computer_vision_remote_sensing/parameter/en/

    图像分析、物体重建、基于图像的表面测量、医学图像处理

    (35)英国萨利大学视觉、语音与信号处理中心: http://www.surrey.ac.uk/cvssp/   人脸识别、监控、3D、视频检索、
    (36)北卡莱罗纳大学教堂山分校Marc Pollefeys教授:http://www.cs.unc.edu/~marc/ 基于视频的3D模型生成、相机标定、运动检测与分析、3D重建

    (37)百度技术副总监于凯:http://www.dbs.ifi.lmu.de/~yu_k/ 深度学习,稀疏表示,图像分类

    (38)加州大学伯克利分校Michael I.Jordan教授:http://www.cs.berkeley.edu/~jordan/ 机器学习

    (39)视觉计算研究论坛:http://www.sigvc.org/bbs/ 中科院视觉计算研究小组的论坛

    (40)南加州大学Paul Debevec教授:http://ict.debevec.org/~debevec/ 或 http://www.pauldebevec.com/ 将CV和CG结合研究 人脸捕捉重建技术

    (41)伊利诺伊大学D.A.Forsyth教授:http://luthuli.cs.uiuc.edu/~daf/ 三维重建

    (42)英国牛津大学Ian Reid教授:http://www.robots.ox.ac.uk/~ian/ 跟踪和机器人导航

    (43)加州大学伯克利分校Jitendra Malik教授:http://www.cs.berkeley.edu/~malik/ 轮廓检测、图像/视频分割、图形匹配、目标识别

    (44)CMU博士Henry Schneiderman: http://www.cs.cmu.edu/~hws/ 目标检测和识别;

    (45)微软研究员Antonio Criminisi: http://research.microsoft.com/en-us/people/antcrim/ 图像修补,三维重建,目标检测与跟踪;

    (55)魏茨曼科学研究所教授Michal Irani: http://www.wisdom.weizmann.ac.il/~irani/ 超分辨率

    (56)瑞士洛桑理工学院Pascal Fua教授:http://people.epfl.ch/pascal.fua/bio?lang=en 立体视觉,增强现实

    (58)中科院助理教授樊彬:http://www.sigvc.org/bfan/ 特征描述;

    (59)斯坦福大学Sebastian Thrun教授:http://robots.stanford.edu/index.html 机器人;

    (60)多伦多大学Geoffrey E.Hinton教授:http://www.cs.toronto.edu/~hinton/ 深度学习

    (61)凤巢系统架构师张栋博士:http://weibo.com/machinelearning

    (62)纽约大学Yann LeCun教授http://yann.lecun.com/   http://yann.lecun.com/exdb/mnist/  手写体数字识别

    (63)中科院自动化所孙哲南助理教书:http://www.cbsr.ia.ac.cn/users/znsun/ 虹膜识别、掌纹识别、人脸识别

    (64)南京信息工程大学刘青山教授:http://www.jstuoke.com/web/xky/detail.asp?NewsID=1096 人脸图像分析、医学图像分析

    (65)清华大学助理教授冯建江:http://ivg.au.tsinghua.edu.cn/~jfeng/ 指纹识别

    (66)北航助理教授黄迪:http://irip.buaa.edu.cn/~dihuang/ 3D人脸识别

    (67)中山大学助理教授郑伟诗:http://sist.sysu.edu.cn/~zhwshi/ 人脸识别、特征匹配、聚类、检索;

    (68)百度深度学习研究中心博士后余轶南:http://www.cbsr.ia.ac.cn/users/ynyu/index.htm 目标检测,图像检索

    (69)威兹曼科技大学超分辨率:http://www.wisdom.weizmann.ac.il/~vision/SingleImageSR.html

    (70)以色列希伯来大学Yair Weiss教授:http://www.cs.huji.ac.il/~yweiss/ 机器学习、超分辨率

    (71)以色列希伯来大学Daniel Zoran博士:http://www.cs.huji.ac.il/~daniez/ 超分辨率、去噪

    (72)美国加州大学Peyman Milanfar教授:http://users.soe.ucsc.edu/~milanfar/ 去噪

    (73)中科院计算所副研究员常虹:http://www.jdl.ac.cn/user/hchang/index.html 图像检索、半监督学习、超分辨率

    (74)以色列威茨曼大学Anat Levin教授:http://www.wisdom.weizmann.ac.il/~levina/ 去噪、去模糊

    (75)以色列威茨曼大学Daniel Glasner博士后:http://www.wisdom.weizmann.ac.il/~glasner/ 超分辨率、分割、姿态估计

    (76)MIT周博磊博士:http://people.csail.mit.edu/bzhou/ 聚集分析、运动检测

    (77)美国田纳西大学Li He博士:http://web.eecs.utk.edu/~lhe4/ 稀疏表示、超分辨率;

    (78)Adobe研究院Jianchao Yang研究员:http://www.ifp.illinois.edu/~jyang29/ 稀疏表示,超分辨率、图片检索、去噪、去模糊

    (79)Deep Learning主页:http://deeplearning.net/ 深度学习论文、软件,代码,demo,数据等;

    (80)斯坦福大学Andrew Ng教授:http://cs.stanford.edu/people/ang/ 深度神经网络,深度学习

    (81)微软研究员Ce Liu: http://people.csail.mit.edu/celiu/ 去噪、超分辨率、去模糊、分割

    (82)West Virginia大学助理教授Xin Li: http://www.csee.wvu.edu/~xinl/ 边缘检测、降噪、去模糊

    (83)http://www.csee.wvu.edu/~xinl/source.html 深度学习、去噪、编码、压缩感知、超分辨率、聚类、分割等相关代码集合

    (84)西班牙格拉纳达大学超分辨率重建项目组:http://decsai.ugr.es/pi/superresolution/index.html

    (85)牛津布鲁克斯大学Philip H.S.Torr教授:http://cms.brookes.ac.uk/staff/PhilipTorr/ 分割、三维重建

    (86)西班牙巴塞罗那大学计算机视觉中心:http://www.cvc.uab.es/adas/site/ 检测、跟踪、3D、行人检测、汽车辅助驾驶

    (87)Libqrencode: http://fukuchi.org/works/qrencode/ 基于C语言的QR二维码编码开源库

    (88)江西财经大学袁飞牛教授:http://sit.jxufe.cn/grbk/yfn/index.html#  烟雾检测、3D重建、医学图像处理

    2018.9.10补充:

    (1)MIT前微软研究员现谷歌Ce Liu: http://people.csail.mit.edu/celiu/

    方向:CNN、Face hallucination、去噪、超分辨率、去模糊、分割

    (2)Research Scientist, Google: http://people.csail.mit.edu/mrub/

    方向:计算机视觉和图形的交叉点的图像和视频的分析的各个领域的工作。是低层次的图像/视频处理和计算摄影和视频.

    (3)斯坦福大学Andrew Ng教授:http://cs.stanford.edu/people/ang/

    方向:深度神经网络,深度学习,very large neural networks to learn from labeled and unlabeled data

    (4)Stanford大学vision实验室;李菲菲所在实验室

    http://vision.stanford.edu/index.html

    方向:计算机视觉和人的视觉。物体识别,场景分类,综合场景理解,人体运动识别,材料识别,神经机制等。

     

    展开全文
  • 4年计算机博士读下来的一些感触

    万次阅读 多人点赞 2019-10-16 10:20:54
    我是在公司工作了4年之后才去读的博士,以前在公司的时候程序员、设计师、项目经理都做过,项目也参与了十几二十个吧,不记得了。读博动机不谈,但其实压力是相当大,毕竟大学成绩一般,虽然实践经验比较丰富,但...

    我是在公司工作了4年之后才去读的博士,以前在公司的时候程序员、设计师、项目经理都做过,项目也参与了十几二十个吧,不记得了。读博动机不谈,但其实压力是相当大,毕竟大学成绩一般,虽然实践经验比较丰富,但学术基础非常差。当时联系导师的时候,有一位教授叫我发成绩单。发了之后直接跟我说:“你这基础太差了。”

    现在也有很多先工作再读博的,但那些一般都是在高校工作,比如本来就是老师。像我这种从企业出来去读的,国外好像比较流行,但国内很少。这几年跟我类似经历的中国人只见过那么2、3个。

    简单说说一些感触。

    1. 英语

    最明显的一个方面就是英语,博士之前我是四级考425的渣渣。现在不说碾压,但听说读写可以勉强称得上个精通。

    2. 研究方向

    研究方向不是非常重要,但又非常重要。看起来很矛盾,但其实却反映一种现实。李国杰院士在2017年提到:“今年全国万人计划青年拔尖人才的评选中,电子信息领域20余名候选人中,研究方向是模式识别和计算机视觉的有9人之多,几乎没有系统结构和软件理论方向的候选人。同样,在何梁何利奖评选中,电子信息领域55名候选人中,只有一位系统结构方向的候选人,两位与软件专业相关的候选人,而光电子学与激光技术等光学专业(应属于电子科学与技术三级以下学科)的候选人有10位。我国计算机科研和产业的弊端是“头重脚轻,消费侧强供给侧弱,核心技术缺失”,信息服务业发展不错,但软件和硬件还很弱。在全球企业2000强名单中,美国有14家芯片公司与14家软件公司,中国尚没有一家。计算机产业像一颗大树,必须扎根在系统结构和软件理论的深土中。

    现在研究的趋势普遍是什么热门就往什么上靠,比如大数据、云计算、机器学习、自然语言处理、图像处理等等。最近才看到华为、腾讯招聘博士的宣传:都是招热门方向的博士。当然这也无可厚非,毕竟计算机基础研究对于企业来说并没有直接利益或者见效太慢。所以方向是基础研究的博士们可能路就稍微窄一点。

    3. 国内外公司

    计算机基础研究在国内外公司的情况感觉也是差很远。国外公司鉴于人力成本很高等因素,对于每个环节都相当重视,所以基础研究其实有一席之地。而国内的公司则不同,往往投入很大精力在实现上、在具体应用上、在技术上等。

    就拿我的研究方向:architectural assumption来说,国外已经存在了二十多年,最近我还有一项成果被欧洲软件架构会议("The European Conference on Software Architecture",软件架构国际顶级会议)录用。比如图灵奖获得者Fernando J. Corbató在ACM Turing Award lecture提到:“design bugs are often subtle and occur by evolution with early assumptions being forgotten as new features or uses are added to systems”。但是国内大部分人可能听都没听过assumption这个概念。曾经有人跟我说:“我知道你研究的东西很重要,比如不管理可能会有很多风险,但仅仅是风险而已,无非的可能结果就是返工、花些时间修改。这个我相信国内很多企业其实并不非常在意。

    当然不否认我可能接触面还是太窄,有以偏概全之嫌,所以这些方面只能是“仅供参考”。

    4. 慢下来

    慢下来并不是说节奏慢,而是说要多思考。以前在公司工作的时候,其实用了很多的Ctrl + C,Ctrl + V。尽管早就知道这不是好事,但是有时候是懒,有时候是没办法要赶进度,所以还是经常用。需要解决某个问题的时候,经常不是去思考怎么解决最好,而是直接百度,把网上的解决方案拿来试。这种快餐式的开发方式其实并不是好事,虽然不否认这种方式也可以解决一些问题。

    在博士阶段算是认识到了思考的重要性。博士们实际上都是一群创新工作者,“复制”这个在工作中无往不利的技能显得毫无意义。基本上我的很多成果,都花了大量的时间,每项工作几百次反复地想、读、审;一百多次的修改肯定是有的。

    5. 重视设计

    每一项成果都需要时间打磨,不管是在学术圈还是企业里,设计阶段非常重要。轻设计带来的后果可能是大量的返工乃至项目的失败。因为以前在公司工作的习惯,我经常喜欢简单设计,然后就跳到实现里去,把大量的精力放在实现上(比如码代码)。这个习惯在公司里可能还好,因为上面还有牛人撑着,大树底下好乘凉。即使出现什么问题,整个团队也会分担。但是在博士期间让我吃了不少亏,因为博士基本是一人一个山头,自己要对自己负责,每项研究你自己要能撑得起来。

    设计不是拍脑袋,一有什么想法,随便弄弄,就去实现。设计是一个反复思考、精化的过程。

    6. 重视细节

    我国外的导师经常抱怨说我不重视细节,这个其实我也知道是很重要的一件事,但是可能天生对细节不敏感,总是差点意思。细节决定成败,这个真不是随便说说,我相信道理大家都懂。

     

    一些其他信息可以去以下链接中看看。

    https://blog.csdn.net/ytomc/article/details/101973776

    展开全文
  • 首先简单介绍自己的一些情况,本科是信息与计算科学专业,研究生是数字媒体技术和艺术专业,研究方向图像处理。我主要是做图像分类以及视频内容分析的一些工作。因为对图像处理、计算机视觉比较感兴趣,所以想找一...

        首先简单介绍自己的一些情况,本科是信息与计算科学专业,研究生是数字媒体技术和艺术专业,研究方向是图像处理。我主要是做图像分类以及视频内容分析的一些工作。因为对图像处理、计算机视觉比较感兴趣,所以想找一个这方面的工作,然后能继续研究下去,现在看来当时想的过于简单了,没有意识到现实的残酷性。其实最终我也没有做图像处理方面的工作,去了一家做电力自动化的公司。

        首先,去面试之前要做一些准备,一个是图像处理的理论知识,一个是编程。理论知识的话看冈萨雷斯的那本数字图像处理,编程的话主要是c和c++,看程序员面试宝典就行,一般对这方面的要求不是太高,也不需要你写很复杂的算法什么的。另外,不少公司要求精通matlab、opencv等。对于自己做过的项目要非常熟悉,面试的时候问的比较细,一旦卡壳就不太好了。

        好的,下面说一下我的面试经历:

        第一家公司是天津海量信息技术有限公司,不过公司总部在北京,是一家海量互联网数据为基础在线智能计算技术提供商,具体做什么我也没太搞清楚。职位是算法工程师。首先是笔试,全是关于图像的理论和应用。包括SIFT特征点的原理及计算方法,HOG特征的计算等。最后还有两个应用题,一个是如何检测矩形,另外一个是字符识别。对了,笔试之前HR问我能不能来实习,我说不能,然后他就很失望,后来我感觉他就是在敷衍我了。笔试完成之后,估计是随便找了两个人给我面试,做了一下自我介绍,问问了项目经验,然后问了我笔试题中几个不会的题目,然后聊了会。面试完成后HR过来通知我说很遗憾,我没有被录用,主要是两个原因:一是不够热情,二是知识面太窄。其实面试一开始我就感觉要悲剧。

        第二家公司是北京文安科技,主要是做智能视频分析的一家公司,包括智能交通、智能安防等等。首先当然还是笔试,笔试全部都是选择题,既有图像处理的知识,也有模式识别的一些东西。虽然都是选择题,还是比较难的。然后HR简单问了我的一些情况,不过感觉答的不好,缺乏面试经验啊。然后一个部门经理来给我面试,主要就问的我简历上面的两个项目,问的非常仔细,其中我还几次都没答上来,知其然而不知其所以然。狂轰乱炸了一个多小时后才结束,弄得我是头昏脑涨。然后就没有消息了。

        第三家公司是凌云光子,首先是笔试,题目包括C++和图像处理理论知识,不是很难,最后两道大题是关于字符识别和车牌识别的。然后是上机,一共四个题,一个是关于素数的,一个是关于字符串的,第三题和第四题是图像方面的,第三题给出一幅图片,检测某个特定位置,第四题是字符识别。所有题目都要求在VC环境下实现,要做界面什么的。第一题、第二题还好说,不太难。第三题和第四题就完全不会了,纠结了两个多小时也没做出来,面试官看我上机做的这么烂,问我愿不愿意做技术支持,然后就聊了会。凌云的笔试题不难,但上机题就比较难了,我是完全没做过字符识别相关的项目。但是凌云的上机题好像一直都是这几个题。

        后来又面了两家小公司,比较坑爹,就不说了。

        回学校之后又面了一家公司,是鲁能智能,应该是鲁能的一家子公司,主要是做电力自动化和电力机器人的,我应聘的职位是模式识别工程师,主要是做电力机器人的视觉系统。首先和HR聊了会,了解一下我的简单情况,然后是笔试题,竟然做了两套笔试题,一套是图像理论和机器视觉方面的,图像理论的题目比较简单,基本上就是冈萨雷斯那本书上的内容,机器视觉就不会了,没接触过。面试的时候首先问了我两道应用题,一道是数一下图片中米粒的个数,这道题比较简单,就是书上的图片,第二道题是读出图片中仪表的读数,接触过的同学可能觉得比较简单,我就答的比较一般了,然后就是项目经验了,不过那两个面试官问的也没问太仔细。这次面试感觉面的还行,面试官也给我说向人力部门推荐,最后还是没消息了,可能是我能力还是不行吧。

        总之,图像处理方面的公司不太多,大多是中小型公司,当然百度、腾讯、三星这些公司也招,但要么是招实习生,要么是招有工作经验的,但就是不招应届生。个人建议,如果毕业后还想做图像方面的工作,最好在研究生期间去实习,或者读个博士吧。

        曾经有人总结了图像处理方面的一些公司名单http://blog.csdn.net/carson2005/article/details/7356225,感兴趣的可以看一看。

      

    展开全文
  • 最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。  就我看来,个人觉得图像处理的就业还是不错的。首先可以把图像看成二维、三维或者更高维的信号...
  • 最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。 就我看来,个人觉得图像处理的就业还是不错的。首先可以把图像看成二维、三维或者更高维的信号,...
  • 浅谈图像处理方向的就业前景

    千次阅读 2008-09-26 20:52:00
    就我看来,个人觉得图像处理的就业还是不错的。...其次,图像处理是计算机视觉和视频处理的基础,掌握好了图像处理的基本知识,就业时就可以向这些方向发展。目前的模式识别,大部分也都是图像模式识别。在实际
  • 浅谈图像处理方向的就业前景[转) 最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。 就我看来,个人觉得图像处理的就业还是不错的。首先可以把...
  • 图像处理研究方向

    千次阅读 2012-12-04 22:17:00
    图像处理方面的研究工作,最重要的两个问题:其一是要把握住国际上最前沿的内容;其二是所做工作要具备很高的实用背景。解决第一个问题的办法就是找出这个方向公认最牛的几个超级大拿(看看他们都在作什么) 和最...
  • 浅谈图像处理方向的就业前景[转)

    千次阅读 2012-02-17 17:53:37
    浅谈图像处理方向的就业前景[转) 最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。 就我看来,个人觉得图像处理的就业还是不错的。首先...
  • 1 现实所逼,你准备在哪个城市发展(买房,女友工作等等),该城市是否有充分的图像处理行业以供选择。如,北京上海深圳,北京的图像企业感觉占近半数江山。多年招聘的感觉。剩下的广州,武汉,成都也有为数不多的...
  • 数字图像处理就业前景--非常详细

    万次阅读 多人点赞 2015-10-30 22:12:22
    最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。就我看来,个人觉得图像处理的就业还是不错的。首先可以把图像看成二维、三维或者更高维的信号,从...
  • 图像处理的研究方向

    千次阅读 2011-08-30 14:18:41
    图像处理方面的研究工作,最重要的两个问题:其一是要把握住国际上最前沿的内容;其二是所做工作要具备很高的实用背景。解决第一个问题的办法就是找出这个方向公认最牛的几个超级大拿(看看他们都在作什么) 和最...
  • 数字图像处理的就业前景

    万次阅读 多人点赞 2013-05-04 14:31:09
    最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。就我看来,个人觉得图像处理的就业还是不错的。首先可以把图像看成二维、三维或者更高维的信号,从...
  • 浅谈图像处理方向的就业前景[转]

    千次阅读 2007-09-04 23:56:00
    最近版上有不少人在讨论图像处理的就业方向,似乎大部分都持悲观的态度。我想结合我今年找工作的经验谈谈我的看法。 就我看来,个人觉得图像处理的就业还是不错的。首先可以把图像看成二维、三维或者更高维的信号,...
  • 如何学好图像处理——从小白到大神?

    万次阅读 多人点赞 2020-04-17 02:28:38
    什么是数字图像处理?历史、以及它所研究的内容。 说起图像处理,你会想到什么?你是否真的了解这个领域所研究的内容。纵向来说,数字图像处理研究的历史相当悠久;横向来说,数字图像处理研究的话题相当广泛。 ...
  • 图像处理方向常用网站

    千次阅读 2016-06-17 13:37:43
    图像处理方向常用网站 做机器视觉和图像处理方面的研究工作,最重要的两个问题:其一是要把握住国际上最前沿的内容;其二是所作工作要具备很高的实用背景。解决第一个问题的办法就是找出这个方向公认最高...
  • (转)图像处理研究方向http://blogold.chinaunix.net/u2/87559/showart_2051966.html 转载于:https://www.cnblogs.com/cngreatwall/archive/2011/03/21/1990185.html
  • 图像处理就业(转)

    千次阅读 2019-06-26 13:39:59
    其次,图像处理是计算机视觉和视频处理的基础,掌握好了图像处理的基本知识,就业时就可以向这些方向发展。目前的模式识别,大部分也都是图像模式识别。在实际应用场合,采集的信息很多都是图像信息,比如指纹、条码...
  • 结合实例与代码谈数字图像处理都研究什么?

    千次阅读 多人点赞 2019-02-24 13:40:01
    图像处理(以及机器视觉)在学校里是一个很大的研究方向,很多研究生、博士生都在导师的带领下从事着这方面的研究。另外,就工作而言,也确实有很多这方面的岗位和机会虚位以待。而且这种情势也越来越凸显。那么图像...
1 2 3 4 5 ... 20
收藏数 11,803
精华内容 4,721
热门标签
关键字:

图像处理方向的博士