2010-08-17 09:14:00 TenSeven 阅读数 2146

by 南京大学 周志华 

tier 1:一流国际会议:

IJCAI (1+):人工智能(AI)最好的综合性会议,1969年开始,每两年开一次,奇数年开。因为AI 实在太大,所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machine learning、computer vision这么大的领域每次大概也就10篇左右,所以难度很大。不过从录用率上来看倒不太低,基本上20%左右, 因为内 行人都会掂掂分量,没希望的就别浪费reviewer的时间了。最近中国大陆投往国际会议的文章象潮水一样,而且因为国内很少有能自己把关的研究组,所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率。在这种情况下,估计这几年国际会议的录用率都会降下去。另外,以前的IJCAI是没有poster的, 03年开始,为了减少被误杀的好人,增加了2页纸的poster。值得一提的是,IJCAI是由貌似一个公司“IJCAI Inc.”的(当然实际上并不是公司, 实际上是个基金会),每次会议上要 发几个奖,其中最重要的两个是IJCAI Research Excellence Award 和 Computer & Thoughts Award,前者是终身成就奖, 每次一个人,基本上是AI的最高奖(有趣的是,以AI为主业拿图灵奖的6位中,有2位还没得到这个奖),后者是奖给35岁以下的青年科学家,每次一个人。这两个奖的获奖演说是每次IJCAI的一个重头戏。另外,IJCAI 的PC member相当于其他会议的area chair,权力很大,因为是由PC member去找reviewer来审,而不象一般会议的PC member其实就是reviewer。为了制约这种权力,IJCAI的审稿程序是每篇文章分配2位PC member,primary PC member去找3位reviewer,second PC member 找一位。
AAAI (1):美国人工智能学会AAAI的年会。是一个很好的会议,但其档次不稳定,可以给到1+,也可以给到1-或者2+,总的来说我给它1。这是因为它的开法完全受IJCAI制约:每年开,但如果这一年的IJCAI在北美举行,那么就停开。所以,偶数年里因为没有IJCAI,它就是最好的AI综合性会议,但因为号召力毕竟比IJCAI要小一些,特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是),所以比IJCAI还是要稍弱一点,基本上在1和1+之间; 在奇数年,如果IJCAI不在北美,AAAI自然就变成了比IJCAI低一级的会议(1-或2+),例如2005年既有IJCAI又有AAAI,两个会议就进行了协调,使得IJCAI的录用通知时间比AAAI的deadline早那么几天,这样IJCAI落选的文章可以投往AAAI。在审稿时IJCAI 的 PC chair也在一直催,说大家一定要快,因为AAAI那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了。
COLT (1):这是计算学习理论最好的会议,ACM主办,每年举行。计算学习理论基本上可以看成理论计算机科学和机器学习的交叉,所以这个会被一些人看成是理论计算机科学的会而不是AI的会。我一个朋友用一句话对它进行了精彩的刻画:“一小群数学家在开会”。因为COLT的领域比较小,所以每年会议基本上都是那些人。这里顺便提一件有趣的事,因为最近国内搞的会议太多太滥,而且很多会议都是LNCS/LNAI出论文集,LNCS/LNAI基本上已经被搞臭了,但很不幸的是,LNCS/LNAI中有一些很好的会议,例如COLT。
CVPR (1):计算机视觉和模式识别方面最好的会议之一,IEEE主办,每年举行。虽然题目上有计算机视觉,但个人认为它的模式识别味道更重一些。事实上它应该是模式识别最好的会议,而在计算机视觉方面,还有ICCV与之相当。IEEE一直有个倾向,要把会办成”盛会”,历史上已经有些会被它从quality很好的会办成“盛会”了。CVPR搞不好也要走这条路。这几年录的文章已经不少了。最近负责CVPR会议的TC的chair发信说,对这个community来说,让好人被误杀比被坏人漏网更糟糕,所以我们是不是要减少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了。
ICCV (1):介绍CVPR的时候说过了,计算机视觉方面最好的会之一。IEEE主办。ICCV逢奇数年开,开会地点以往是北美,欧洲和亚洲轮流,本来2003年定在北京,后来因Sars和原定05年的法国换了一下。ICCV'07年将首次在南美(巴西)举行.
ICML (1):机器学习方面最好的会议之一。现在是IMLS主办,每年举行。参见关于NIPS的介绍。
NIPS (1):神经计算方面最好的会议之一,NIPS主办,每年举行。值得注意的是,这个会每年的举办地都是一样的,以前是美国丹佛,现在是加拿大温哥华; 而且它是年底开会,会开完后第2年才出论文集,也就是说,NIPS'05的论文集是06年出。会议的名字是“Advances in Neural Inxxxxation Processing Systems”,所以,与ICMLECML这样的“标准的”机器学习会议不同,NIPS里有相当一部分神经科学的内容,和机器学习有一定的距离。但由于会议的主体内容是机器学习,或者说与机器学习关系紧密,所以不少人把NIPS看成是机器学习方面最好的会议之一。这个会议基本上控制在MichaelJordan的徒子徒孙手中,所以对Jordan系的人来说,发NIPS并不是难事,一些未必很强的工作也能发上去,但对这个圈子之外的人来说,想发一篇实在很难,因为留给“外人”的口子很小。所以对Jordan系以外的人来说,发NIPS的难度比ICML更大。换句话说,ICML比较开放,小圈子的影响不象NIPS那么大,所以北美和欧洲人都认,而NIPS则有些人(特别是一些欧洲人,包括一些大家)坚决不投稿。这对会议本身当然并不是好事,但因为Jordan系很强大,所以它似乎也不太care。最近IMLS(国际机器学习学会)改选理事,有资格提名的人包括近三年在ICMLECMLCOLT发过文章的人,NIPS则被排除在外了。无论如何,这是一个非常好的会。
ACL (1-):计算语言学/自然语言处理方面最好的会议,ACL (Association of Computational Linguistics)主办,每年开。
KR (1-):知识表示和推理方面最好的会议之一,实际上也是传统AI(即基于逻辑的AI)最好的会议之一。KR Inc。主办,现在是偶数年开。
SIGIR (1-):信息检索方面最好的会议,ACM主办,每年开。这个会现在小圈子气越来越重。信息检索应该不算AI,不过因为这里面用到机器学习越来越多,最近几年甚至有点机器学习应用会议的味道了,所以把它也列进来。
SIGKDD (1-):数据挖掘方面最好的会议,ACM主办,每年开。这个会议历史比较短,毕竟,与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿。在几年前还很难把它列在tier-1里面,一方面是名声远不及其他的top conference响亮,另一方面是相对容易被录用。但现在它被列在tier-1应该是毫无疑问的事情了。这几年来KDD的质量都很高。SIGKDD从2000年来full paper的录取率都在10%-12%之间,远远低于IJCAI和ICML。
经常听人说,KDD要比IJICAI和ICML都要困难。IJICAI才6页,而KDD要10页。没有扎实系统的工作,很难不留下漏洞。有不少IJICAI的常客也每年都投KDD,可难得几个能经常中。
UAI (1-):名字叫“人工智能中的不确定性”,涉及表示推理学习等很多方面,AUAI(Association of UAI)主办,每年开.

 

我知道的几个人工智能会议(二三流)

(原创为lilybbs。us上的daniel)
纯属个人看法,仅供参考。tier-1的列得较全,tier-2的不太全,tier-3的很不全。
同分的按字母序排列。不很严谨地说,tier-1是可以令人羡慕的,tier-2是可以令人尊敬的,由于AI的相关会议非常多,所以能列进tier-3的也是不错的.

tier 2:tier-2的会议列得不全,我熟悉的领域比较全一些.

AAMAS (2+):agent方面最好的会议。但是现在agent已经是一个一般性的概念,几乎所有AI有关的会议上都有这方面的内容,所以AAMAS下降的趋势非常明显。
ECCV (2+):计算机视觉方面仅次于ICCV的会议,因为这个领域发展很快,有可能升级到1-去。
ECML (2+):机器学习方面仅次于ICML的会议,欧洲人极力捧场,一些人认为它已经是1-了。我保守一点,仍然把它放在2+。因为机器学习发展很快,这个会议的reputation上升非常明显。
ICDM (2+):数据挖掘方面仅次于SIGKDD的会议,目前和SDM相当。这个会只有5年历史,上升速度之快非常惊人。几年前ICDM还比不上PAKDD,现在已经拉开很大距离了。
SDM (2+):数据挖掘方面仅次于SIGKDD的会议,目前和ICDM相当。SIAM的底子很厚,但在CS里面的影响比ACM和IEEE还是要小,SDM眼看着要被ICDM超过了,但至少目前还是相当的。
ICAPS (2):人工智能规划方面最好的会议,是由以前的国际和欧洲规划会议合并来的。因为这个领域逐渐变冷清,影响比以前已经小了。
ICCBR (2):Case-Based Reasoning方面最好的会议。因为领域不太大,而且一直半冷不热,所以总是停留在2上。
COLLING (2):计算语言学/自然语言处理方面仅次于ACL的会,但与ACL的差距比ICCV-ECCV和ICML-ECML大得多。
ECAI (2):欧洲的人工智能综合型会议,历史很久,但因为有IJCAI/AAAI压着,很难往上升。
ALT (2-):有点象COLT的tier-2版,但因为搞计算学习理论的人没多少,做得好的数来数去就那么些group,基本上到COLT去了,所以ALT里面有不少并非计算学习理论的内容。
EMNLP (2-):计算语言学/自然语言处理方面一个不错的会。有些人认为与COLLING相当,但我觉得它还是要弱一点。
ILP (2-):归纳逻辑程序设计方面最好的会议。但因为很多其他会议里都有ILP方面的内容,所以它只能保住2-的位置了。
PKDD (2-):欧洲的数据挖掘会议,目前在数据挖掘会议里面排第4。欧洲人很想把它抬起来,所以这些年一直和ECML一起捆绑着开,希望能借ECML把它带起来。但因为ICDM和SDM,这已经不太可能了。所以今年的PKDD和ECML虽然还是一起开,但已经独立审稿了(以前是可以同时投两个会,作者可以声明优先被哪个会考虑,如果ECML中不了还可以被PKDD接受).


tier 3:列得很不全。另外,因为AI的相关会议非常多,所以能列在tier-3也算不错了,基本上能进到所有AI会议中的前30%吧。

ACCV (3+):亚洲的计算机视觉会议,在亚太级别的会议里算很好的了。
DS (3+):日本人发起的一个接近数据挖掘的会议。
ECIR (3+):欧洲的信息检索会议,前几年还只是英国的信息检索会议。
ICTAI (3+):IEEE最主要的人工智能会议,偏应用,是被IEEE办烂的一个典型。以前的quality还是不错的,但是办得越久声誉反倒越差了,糟糕的是似乎还在继续下滑,现在其实3+已经不太呆得住了。
PAKDD (3+):亚太数据挖掘会议,目前在数据挖掘会议里排第5。
ICANN (3+):欧洲的神经网络会议,从quality来说是神经网络会议中最好的,但这个领域的人不重视会议,在该领域它的重要性不如IJCNN。
AJCAI (3):澳大利亚的综合型人工智能会议,在国家/地区级AI会议中算不错的了。
CAI (3):加拿大的综合型人工智能会议,在国家/地区级AI会议中算不错的了。
CEC (3):进化计算方面最重要的会议之一,盛会型。IJCNN/CEC/FUZZ-IEEE这三个会议是计算智能或者说软计算方面最重要的会议,它们经常一起开,这时就叫WCCI (World Congress on Computational Intelligence)。但这个领域和CS其他分支不太一样,倒是和其他学科相似,只重视journal,不重视会议,所以录用率经常在85%左右,所录文章既有quality非常高的论文,也有入门新手的习作。
FUZZ-IEEE (3):模糊方面最重要的会议,盛会型,参见CEC的介绍。
GECCO (3):进化计算方面最重要的会议之一,与CEC相当,盛会型。
ICASSP (3):语音方面最重要的会议之一,这个领域的人也不很care会议。
ICIP (3):图像处理方面最著名的会议之一,盛会型。
ICPR (3):模式识别方面最著名的会议之一,盛会型。
IEA/AIE (3):人工智能应用会议。一般的会议提名优秀论文的通常只有几篇文章,被提名就已经是很高的荣誉了,这个会很有趣,每次都搞1、20篇的优秀论文提名,专门搞几个session做被提名论文报告,倒是很热闹。
IJCNN (3):神经网络方面最重要的会议,盛会型,参见CEC的介绍。
IJNLP (3):计算语言学/自然语言处理方面比较著名的一个会议。
PRICAI (3):亚太综合型人工智能会议,虽然历史不算短了,但因为比它好或者相当的综合型会议太多,所以很难上升。


本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/chl033/archive/2008/10/12/3059188.aspx

2016-01-27 12:02:19 qq_26898461 阅读数 1444

国内外从事计算机视觉和图像处理相关领域的著名学者都以在三大顶级会议(ICCV,CVPR和ECCV)上发表论文为荣,其影响力远胜于一般SCI期刊论文,这三大顶级学术会议论文也引领着未来的研究趋势。CVPR是主要的计算机视觉会议,可以把它看作是计算机视觉研究的奥林匹克。博主今天先来整理CVPR2015年的精彩文章(这个就够很长一段时间消化的了)
顶级会议CVPR2015参会paper网址:
http://www.cv-foundation.org/openaccess/CVPR2015.py

来吧,一项项的开始整理,总有你需要的文章在等你!

CNN Architectures

CNN网络结构:
1.Hypercolumns for Object Segmentation and Fine-Grained Localization
Authors: Bharath Hariharan, Pablo Arbeláez, Ross Girshick, Jitendra Malik

2.Modeling Local and Global Deformations in Deep Learning: Epitomic Convolution, Multiple Instance Learning, and Sliding Window Detection
Authors: George Papandreou, Iasonas Kokkinos, Pierre-André Savalle

3.Going Deeper With Convolutions
Authors: Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich
这篇文章推荐一下,使用了《network in network》中的用 global averaging pooling layer 替代 fully-connected layer的思想。有看过的可以私信博主,一起讨论文章心得。

4.Improving Object Detection With Deep Convolutional Networks via Bayesian Optimization and Structured Prediction
Authors: Yuting Zhang, Kihyuk Sohn, Ruben Villegas, Gang Pan, Honglak Lee

5.Deep Neural Networks Are Easily Fooled: High Confidence Predictions for Unrecognizable Images
Authors: Anh Nguyen, Jason Yosinski, Jeff Clune

Action and Event Recognition

1.Deeply Learned Attributes for Crowded Scene Understanding
Authors: Jing Shao, Kai Kang, Chen Change Loy, Xiaogang Wang

2.Modeling Video Evolution for Action Recognition
Authors: Basura Fernando, Efstratios Gavves, José Oramas M., Amir Ghodrati, Tinne Tuytelaars

3.Joint Inference of Groups, Events and Human Roles in Aerial Videos
Authors: Tianmin Shu, Dan Xie, Brandon Rothrock, Sinisa Todorovic, Song Chun Zhu

Segmentation in Images and Video

1.Causal Video Object Segmentation From Persistence of Occlusions
Authors: Brian Taylor, Vasiliy Karasev, Stefano Soatto

2.Fully Convolutional Networks for Semantic Segmentation
Authors: Jonathan Long, Evan Shelhamer, Trevor Darrell
——文章把全连接层当做卷积层,也用来输出featuremap。这样相比Hypercolumns/HED 这样的模型,可迁移的模型层数(指VGG16/Alexnet等)就更多了。但是从文章来看,因为纯卷积嘛,所以featuremap的每个点之间没有位置信息的区分。相较于Hypercolumns的claim,鼻子的点出现在图像的上半部分可以划分为pedestrian类的像素,但是如果出现在下方就应该划分为背景。所以位置信息应该是挺重要需要考虑的。这也许是速度与性能的trade-off?

3.Is object localization for free - Weakly-supervised learning with convolutional neural networks
——弱监督做object detection的文章。首先fc layer当做conv layer与上面这篇文章思想一致。同时把最后max pooling之前的feature map看做包含class localization的信息,只不过从第五章“Does adding object-level supervision help classification”的结果看,效果虽好,但是这一物理解释可能不够完善。

4.Shape-Tailored Local Descriptors and Their Application to Segmentation and Tracking
Authors: Naeemullah Khan, Marei Algarni, Anthony Yezzi, Ganesh Sundaramoorthi

5.Deep Filter Banks for Texture Recognition and Segmentation
Authors: Mircea Cimpoi, Subhransu Maji, Andrea Vedaldi

6.Deeply learned face representations are sparse, selective, and robust, Yi Sun, Xiaogang Wang, Xiaoou Tang
——DeepID系列之DeepID2+。在DeepID2之上的改进是增加了网络的规模(feature map数目),另外每一层都接入一个全连通层加supervision。最精彩的地方应该是后面对神经元性能的分析,发现了三个特点:1.中度稀疏最大化了区分性,并适合二值化;2.身份和attribute选择性;3.对遮挡的鲁棒性。这三个特点在模型训练时都没有显示或隐含地强加了约束,都是CNN自己学的。

Image and Video Processing and Restoration

1.Fast and Flexible Convolutional Sparse Coding
Authors: Felix Heide, Wolfgang Heidrich, Gordon Wetzstein

2.What do 15,000 Object Categories Tell Us About Classifying and Localizing Actions?
Authors: Mihir Jain, Jan C. van Gemert, Cees G. M. Snoek
——物品的分类对行为检测有帮助作用。这篇文章是第一篇关于这个话题进行探讨的,是个深坑,大家可以关注一下,考虑占坑。

3.Hypercolumns for Object Segmentation and Fine-Grained Localization
Authors:Bharath Hariharan, Pablo Arbeláez, Ross Girshick, Jitendra Malik
——一个很好的思路!以前的CNN或者R-CNN,我们总是用最后一层作为class label,倒数第二层作为feature。这篇文章的作者想到利用每一层的信息。因为对于每一个pixel来讲,在所有层数上它都有被激发和不被激发两种态,作者利用了每一层的激发态作为一个feature vector来帮助自己做精细的物体检测。

3D Models and Images

1.The Stitched Puppet: A Graphical Model of 3D Human Shape and Pose
Authors: Silvia Zuffi, Michael J. Black

2.3D Shape Estimation From 2D Landmarks: A Convex Relaxation Approach
Authors: Xiaowei Zhou, Spyridon Leonardos, Xiaoyan Hu, Kostas Daniilidis

Images and Language

这个类别的文章需要好好看看,对思路的发散很有帮助

1.Show and Tell: A Neural Image Caption Generator
Authors: Oriol Vinyals, Alexander Toshev, Samy Bengio, Dumitru Erhan

2.Deep Visual-Semantic Alignments for Generating Image Descriptions
Authors: Andrej Karpathy, Li Fei-Fei

3.Long-Term Recurrent Convolutional Networks for Visual Recognition and Description
Authors: Jeffrey Donahue, Lisa Anne Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko, Trevor Darrell

4.Becoming the Expert - Interactive Multi-Class Machine Teaching
Authors: Edward Johns, Oisin Mac Aodha, Gabriel J. Brostow

其它

CNN卷积神经网络的改进(15年最新paper):
http://blog.csdn.net/u010402786/article/details/50499864
文章中的四篇文章也值得一读,其中一篇在上面出现过。一定要自己下载下来看一看。

这是另外一个博主的博客,也是对CVPR的文章进行了整理:
http://blog.csdn.net/jwh_bupt/article/details/46916653

基本许多文章里面没有注释核心思想,接下来慢慢补充。2016-01-20

2017-06-16 16:19:00 weixin_30258901 阅读数 2

   国内外从事计算机视觉和图像处理相关领域的著名学者都以在三大顶级会议(ICCV。CVPR和ECCV)上发表论文为荣,其影响力远胜于一般SCI期刊论文。这三大顶级学术会议论文也引领着未来的研究趋势。CVPR是基本的计算机视觉会议。能够把它看作是计算机视觉研究的奥林匹克。

博主今天先来整理CVPR2015年的精彩文章(这个就够非常长一段时间消化的了)
   顶级会议CVPR2015參会paper网址:
http://www.cv-foundation.org/openaccess/CVPR2015.py

   来吧,一项项的開始整理。总有你须要的文章在等你!

CNN Architectures

CNN网络结构:
1.Hypercolumns for Object Segmentation and Fine-Grained Localization
Authors: Bharath Hariharan, Pablo Arbeláez, Ross Girshick, Jitendra Malik

2.Modeling Local and Global Deformations in Deep Learning: Epitomic Convolution, Multiple Instance Learning, and Sliding Window Detection
Authors: George Papandreou, Iasonas Kokkinos, Pierre-André Savalle

3.Going Deeper With Convolutions
Authors: Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich
这篇文章推荐一下。使用了《network in network》中的用 global averaging pooling layer 替代 fully-connected layer的思想。有看过的能够私信博主,一起讨论文章心得。

4.Improving Object Detection With Deep Convolutional Networks via Bayesian Optimization and Structured Prediction
Authors: Yuting Zhang, Kihyuk Sohn, Ruben Villegas, Gang Pan, Honglak Lee

5.Deep Neural Networks Are Easily Fooled: High Confidence Predictions for Unrecognizable Images
Authors: Anh Nguyen, Jason Yosinski, Jeff Clune

Action and Event Recognition

1.Deeply Learned Attributes for Crowded Scene Understanding
Authors: Jing Shao, Kai Kang, Chen Change Loy, Xiaogang Wang

2.Modeling Video Evolution for Action Recognition
Authors: Basura Fernando, Efstratios Gavves, José Oramas M., Amir Ghodrati, Tinne Tuytelaars

3.Joint Inference of Groups, Events and Human Roles in Aerial Videos
Authors: Tianmin Shu, Dan Xie, Brandon Rothrock, Sinisa Todorovic, Song Chun Zhu

Segmentation in Images and Video

1.Causal Video Object Segmentation From Persistence of Occlusions
Authors: Brian Taylor, Vasiliy Karasev, Stefano Soatto

2.Fully Convolutional Networks for Semantic Segmentation
Authors: Jonathan Long, Evan Shelhamer, Trevor Darrell
——文章把全连接层当做卷积层,也用来输出featuremap。

这样相比Hypercolumns/HED 这种模型,可迁移的模型层数(指VGG16/Alexnet等)就很多其他了。可是从文章来看,由于纯卷积嘛,所以featuremap的每个点之间没有位置信息的区分。相较于Hypercolumns的claim。鼻子的点出如今图像的上半部分能够划分为pedestrian类的像素,可是假设出如今下方就应该划分为背景。所以位置信息应该是挺重要须要考虑的。

这或许是速度与性能的trade-off?

3.Is object localization for free - Weakly-supervised learning with convolutional neural networks
——弱监督做object detection的文章。首先fc layer当做conv layer与上面这篇文章思想一致。同一时候把最后max pooling之前的feature map看做包括class localization的信息,仅仅只是从第五章“Does adding object-level supervision help classification”的结果看。效果虽好,可是这一物理解释可能不够完好。

4.Shape-Tailored Local Descriptors and Their Application to Segmentation and Tracking
Authors: Naeemullah Khan, Marei Algarni, Anthony Yezzi, Ganesh Sundaramoorthi

5.Deep Filter Banks for Texture Recognition and Segmentation
Authors: Mircea Cimpoi, Subhransu Maji, Andrea Vedaldi

6.Deeply learned face representations are sparse, selective, and robust, Yi Sun, Xiaogang Wang, Xiaoou Tang
——DeepID系列之DeepID2+。在DeepID2之上的改进是添加了网络的规模(feature map数目)。另外每一层都接入一个全连通层加supervision。

最精彩的地方应该是后面对神经元性能的分析,发现了三个特点:1.中度稀疏最大化了区分性。并适合二值化;2.身份和attribute选择性。3.对遮挡的鲁棒性。这三个特点在模型训练时都没有显示或隐含地强加了约束。都是CNN自己学的。

Image and Video Processing and Restoration

1.Fast and Flexible Convolutional Sparse Coding
Authors: Felix Heide, Wolfgang Heidrich, Gordon Wetzstein

2.What do 15,000 Object Categories Tell Us About Classifying and Localizing Actions?
Authors: Mihir Jain, Jan C. van Gemert, Cees G. M. Snoek
——物品的分类对行为检測有帮助作用。这篇文章是第一篇关于这个话题进行探讨的。是个深坑,大家能够关注一下,考虑占坑。

3.Hypercolumns for Object Segmentation and Fine-Grained Localization
Authors:Bharath Hariharan, Pablo Arbeláez, Ross Girshick, Jitendra Malik
——一个非常好的思路!曾经的CNN或者R-CNN,我们总是用最后一层作为class label。倒数第二层作为feature。这篇文章的作者想到利用每一层的信息。

由于对于每个pixel来讲,在全部层数上它都有被激发和不被激发两种态。作者利用了每一层的激发态作为一个feature vector来帮助自己做精细的物体检測。

3D Models and Images

1.The Stitched Puppet: A Graphical Model of 3D Human Shape and Pose
Authors: Silvia Zuffi, Michael J. Black

2.3D Shape Estimation From 2D Landmarks: A Convex Relaxation Approach
Authors: Xiaowei Zhou, Spyridon Leonardos, Xiaoyan Hu, Kostas Daniilidis

Images and Language

这个类别的文章须要好好看看,对思路的发散非常有帮助

1.Show and Tell: A Neural Image Caption Generator
Authors: Oriol Vinyals, Alexander Toshev, Samy Bengio, Dumitru Erhan

2.Deep Visual-Semantic Alignments for Generating Image Descriptions
Authors: Andrej Karpathy, Li Fei-Fei

3.Long-Term Recurrent Convolutional Networks for Visual Recognition and Description
Authors: Jeffrey Donahue, Lisa Anne Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko, Trevor Darrell

4.Becoming the Expert - Interactive Multi-Class Machine Teaching
Authors: Edward Johns, Oisin Mac Aodha, Gabriel J. Brostow

其他

參考文献一:CNN卷积神经网络的改进(15年最新paper):
http://blog.csdn.net/u010402786/article/details/50499864
文章中的四篇文章也值得一读,当中一篇在上面出现过。

一定要自己下载下来看一看。
參考文献二:这是另外一个博主的博客,也是对CVPR的文章进行了整理:
http://blog.csdn.net/jwh_bupt/article/details/46916653

基本很多文章里面没有凝视核心思想,接下来慢慢补充。2016-01-20

转载于:https://www.cnblogs.com/gccbuaa/p/7028065.html

2008-10-11 23:09:00 chl033 阅读数 1450

南京大学 周志华 

tier 1: 一流国际会议:

IJCAI (1+): 人工智能(AI)最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI 实在太大, 所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machine learning、computer vision这么大的领域每次大概也就10篇左右, 所以难度很大. 不过从录用率上来看倒不太低,基本上20%左右, 因为内 行人都会掂掂分量, 没希望的就别浪费reviewer的时间了. 最近中国大陆投往国际会议的文章象潮水一样, 而且因为国内很少有能自己把关的研究组, 所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率. 在这种情况下, 估计这几年国际会议的录用率都会降下去. 另外, 以前的IJCAI是没有poster的, 03年开始, 为了减少被误杀的好人, 增加了2页纸的poster.值得一提的是, IJCAI是由貌似一个公司"IJCAI Inc."主办的(当然实际上并不是公司, 实际上是个基金会), 每次会议上要 发几个奖, 其中最重要的两个是IJCAI Research Excellence Award 和 Computer& Thoughts Award, 前者是终身成就奖, 每次一个人, 基本上是AI的最高奖(有趣的是, 以AI为主业拿图灵奖的6位中, 有2位还没得到这个奖), 后者是奖给35岁以下的青年科学家, 每次一个人. 这两个奖的获奖演说是每次IJCAI的一个重头戏.另外,IJCAI 的 PC member 相当于其他会议的area chair, 权力很大, 因为是由PC member 去找 reviewer 来审, 而不象一般会议的PC member其实就是 reviewer. 为了制约这种权力, IJCAI的审稿程序是每篇文章分配2位PC member, primary PC member去找3位reviewer, second PC member 找一位.
AAAI (1): 美国人工智能学会AAAI的年会. 是一个很好的会议, 但其档次不稳定, 可以给到1+, 也可以给到1-或者2+, 总的来说我给它"1". 这是因为它的开法完全受IJCAI制约: 每年开, 但如果这一年的IJCAI在北美举行, 那么就停开. 所以, 偶数年里因为没有IJCAI, 它就是最好的AI综合性会议, 但因为号召力毕竟比IJCAI要小一些,特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是), 所以比IJCAI还是要稍弱一点, 基本上在1和1+之间; 在奇数年, 如果IJCAI不在北美, AAAI自然就变成了比IJCAI低一级的会议(1-或2+), 例如2005年既有IJCAI又有AAAI, 两个会议就进行了协调, 使得IJCAI的录用通知时间比AAAI的deadline早那么几天, 这样IJCAI落选的文章可以投往AAAI.在审稿时IJCAI 的 PC chair也在一直催, 说大家一定要快, 因为AAAI那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了.
COLT (1): 这是计算学习理论最好的会议, ACM主办, 每年举行. 计算学习理论基本上可以看成理论计算机科学和机器学习的交叉, 所以这个会被一些人看成是理论计算机科学的会而不是AI的会. 我一个朋友用一句话对它进行了精彩的刻画: "一小群数学家在开会". 因为COLT的领域比较小, 所以每年会议基本上都是那些人. 这里顺便提一件有趣的事, 因为最近国内搞的会议太多太滥, 而且很多会议都是LNCS/LNAI出论文集, LNCS/LNAI基本上已经被搞臭了, 但很不幸的是,LNCS/LNAI中有一些很好的会议, 例如COLT.
CVPR (1): 计算机视觉和模式识别方面最好的会议之一, IEEE主办, 每年举行. 虽然题目上有计算机视觉, 但个人认为它的模式识别味道更重一些. 事实上它应该是模式识别最好的会议, 而在计算机视觉方面, 还有ICCV与之相当. IEEE一直有个倾向, 要把会办成"盛会", 历史上已经有些会被它从quality很好的会办成"盛会"了. CVPR搞不好也要走这条路. 这几年录的文章已经不少了. 最近负责CVPR会议的TC的chair发信说, 对这个community来说, 让好人被误杀比被坏人漏网更糟糕, 所以我们是不是要减少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了.
ICCV (1): 介绍CVPR的时候说过了, 计算机视觉方面最好的会之一. IEEE主办. ICCV逢奇数年开,开会地点以往是北美,欧洲和亚洲轮流,本来2003年定在北京,后来因Sars和原定05年的法国换了一下。ICCV'07年将首次在南美(巴西)举行.
ICML (1): 机器学习方面最好的会议之一. 现在是IMLS主办, 每年举行. 参见关于NIPS的介绍.
NIPS (1): 神经计算方面最好的会议之一, NIPS主办, 每年举行. 值得注意的是, 这个会每年的举办地都是一样的, 以前是美国丹佛, 现在是加拿大温哥华; 而且它是年底开会, 会开完后第2年才出论文集, 也就是说, NIPS'05的论文集是06年出. 会议的名字是"Advances in Neural Inxxxxation Processing Systems", 所以, 与ICMLECML这样的"标准的"机器学习会议不同, NIPS里有相当一部分神经科学的内容, 和机器学习有一定的距离. 但由于会议的主体内容是机器学习, 或者说与机器学习关系紧密, 所以不少人把NIPS看成是机器学习方面最好的会议之一. 这个会议基本上控制在MichaelJordan的徒子徒孙手中, 所以对Jordan系的人来说, 发NIPS并不是难事, 一些未必很强的工作也能发上去, 但对这个圈子之外的人来说, 想发一篇实在很难, 因为留给"外人"的口子很小. 所以对Jordan系以外的人来说, 发NIPS的难度比ICML更大. 换句话说,ICML比较开放, 小圈子的影响不象NIPS那么大, 所以北美和欧洲人都认, 而NIPS则有些人(特别是一些欧洲人, 包括一些大家)坚决不投稿. 这对会议本身当然并不是好事,但因为Jordan系很强大, 所以它似乎也不太care. 最近IMLS(国际机器学习学会)改选理事, 有资格提名的人包括近三年在ICMLECMLCOLT发过文章的人, NIPS则被排除在外了. 无论如何, 这是一个非常好的会.
ACL (1-): 计算语言学/自然语言处理方面最好的会议, ACL (Association of Computational Linguistics) 主办, 每年开.
KR (1-): 知识表示和推理方面最好的会议之一, 实际上也是传统AI(即基于逻辑的AI)最好的会议之一. KR Inc.主办, 现在是偶数年开.
SIGIR (1-): 信息检索方面最好的会议, ACM主办, 每年开. 这个会现在小圈子气越来越重. 信息检索应该不算AI, 不过因为这里面用到机器学习越来越多, 最近几年甚至有点机器学习应用会议的味道了, 所以把它也列进来.
SIGKDD (1-): 数据挖掘方面最好的会议, ACM主办, 每年开. 这个会议历史比较短,毕竟, 与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿. 在几年前还很难把它列在tier-1里面, 一方面是名声远不及其他的top conference响亮, 另一方面是相对容易被录用. 但现在它被列在tier-1应该是毫无疑问的事情了. 这几年来KDD的质量都很高. SIGKDD从2000年来full paper的录取率都在10%-12%之间,远远低于IJCAI和ICML.
经常听人说,KDD要比IJICAI和ICML都要困难。IJICAI才6页,而KDD要10页。没有扎实系统的工作,很难不留下漏洞。有不少IJICAI的常客也每年都投KDD,可难得几个能经常中。
UAI (1-): 名字叫"人工智能中的不确定性", 涉及表示推理学习等很多方面, AUAI(Association of UAI) 主办, 每年开.


我知道的几个人工智能会议(二三流)

(原创为lilybbs.us上的daniel)
纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全.
同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的.

tier 2: tier-2的会议列得不全, 我熟悉的领域比较全一些.

AAMAS (2+): agent方面最好的会议. 但是现在agent已经是一个一般性的概念,几乎所有AI有关的会议上都有这方面的内容, 所以AAMAS下降的趋势非常明显.
ECCV (2+): 计算机视觉方面仅次于ICCV的会议, 因为这个领域发展很快, 有可能升级到1-去.
ECML (2+): 机器学习方面仅次于ICML的会议, 欧洲人极力捧场, 一些人认为它已经是1-了. 我保守一点, 仍然把它放在2+. 因为机器学习发展很快, 这个会议的reputation上升非常明显.
ICDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和SDM相当. 这个会只有5年历史, 上升速度之快非常惊人. 几年前ICDM还比不上PAKDD, 现在已经拉开很大距离了.
SDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和ICDM相当. SIAM的底子很厚,但在CS里面的影响比ACM和IEEE还是要小, SDM眼看着要被ICDM超过了, 但至少目前还是相当的.
ICAPS (2): 人工智能规划方面最好的会议, 是由以前的国际和欧洲规划会议合并来的. 因为这个领域逐渐变冷清, 影响比以前已经小了.
ICCBR (2): Case-Based Reasoning方面最好的会议. 因为领域不太大, 而且一直半冷不热, 所以总是停留在2上.
COLLING (2): 计算语言学/自然语言处理方面仅次于ACL的会, 但与ACL的差距比ICCV-ECCV和ICML-ECML大得多.
ECAI (2): 欧洲的人工智能综合型会议, 历史很久, 但因为有IJCAI/AAAI压着,很难往上升.
ALT (2-): 有点象COLT的tier-2版, 但因为搞计算学习理论的人没多少, 做得好的数来数去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非计算学习理论的内容.
EMNLP (2-): 计算语言学/自然语言处理方面一个不错的会. 有些人认为与COLLING相当, 但我觉得它还是要弱一点.
ILP (2-): 归纳逻辑程序设计方面最好的会议. 但因为很多其他会议里都有ILP方面的内容, 所以它只能保住2-的位置了.
PKDD (2-): 欧洲的数据挖掘会议, 目前在数据挖掘会议里面排第4. 欧洲人很想把它抬起来, 所以这些年一直和ECML一起捆绑着开, 希望能借ECML把它带起来.但因为ICDM和SDM, 这已经不太可能了. 所以今年的PKDD和ECML虽然还是一起开, 但已经独立审稿了(以前是可以同时投两个会, 作者可以声明优先被哪个会考虑, 如果ECML中不了还可以被PKDD接受).


tier 3: 列得很不全. 另外, 因为AI的相关会议非常多, 所以能列在tier-3也算不错了, 基本上能进到所有AI会议中的前30%吧

ACCV (3+): 亚洲的计算机视觉会议, 在亚太级别的会议里算很好的了.
DS (3+): 日本人发起的一个接近数据挖掘的会议.
ECIR (3+): 欧洲的信息检索会议, 前几年还只是英国的信息检索会议.
ICTAI (3+): IEEE最主要的人工智能会议, 偏应用, 是被IEEE办烂的一个典型. 以前的quality还是不错的, 但是办得越久声誉反倒越差了, 糟糕的是似乎还在继续下滑, 现在其实3+已经不太呆得住了.
PAKDD (3+): 亚太数据挖掘会议, 目前在数据挖掘会议里排第5.
ICANN (3+): 欧洲的神经网络会议, 从quality来说是神经网络会议中最好的, 但这个领域的人不重视会议,在该领域它的重要性不如IJCNN.
AJCAI (3): 澳大利亚的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.
CAI (3): 加拿大的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.
CEC (3): 进化计算方面最重要的会议之一, 盛会型. IJCNN/CEC/FUZZ-IEEE这三个会议是计算智能或者说软计算方面最重要的会议, 它们经常一起开, 这时就叫WCCI (World Congress on Computational Intelligence). 但这个领域和CS其他分支不太一样, 倒是和其他学科相似, 只重视journal, 不重视会议, 所以录用率经常在85%左右, 所录文章既有quality非常高的论文, 也有入门新手的习作.
FUZZ-IEEE (3): 模糊方面最重要的会议, 盛会型, 参见CEC的介绍.
GECCO (3): 进化计算方面最重要的会议之一, 与CEC相当,盛会型.
ICASSP (3): 语音方面最重要的会议之一, 这个领域的人也不很care会议.
ICIP (3): 图像处理方面最著名的会议之一, 盛会型.
ICPR (3): 模式识别方面最著名的会议之一, 盛会型.
IEA/AIE (3): 人工智能应用会议. 一般的会议提名优秀论文的通常只有几篇文章, 被提名就已经是很高的荣誉了, 这个会很有趣, 每次都搞1、20篇的优秀论文提名, 专门搞几个session做被提名论文报告, 倒是很热闹.
IJCNN (3): 神经网络方面最重要的会议, 盛会型, 参见CEC的介绍.
IJNLP (3): 计算语言学/自然语言处理方面比较著名的一个会议.
PRICAI (3): 亚太综合型人工智能会议, 虽然历史不算短了, 但因为比它好或者相当的综合型会议太多, 所以很难上升.

2009-10-24 15:14:00 hj_huangjun 阅读数 831

转载 人工智能机器学习数据挖掘著名会议

下面同分的按字母序排列:

IJCAI (1+): AI最好的综合性会议, 1969年开始, 每两年开一次, 奇数年开. 因为AI 实在太大, 所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,象machine learning、computer vision这么大的领域每次大概也就10篇左右, 所以难度很大. 不过从录用率上来看倒不太低,基本上20%左右, 因为内 行人都会掂掂分量, 没希望的就别浪费reviewer的时间了. 最近中国大陆投往国际会议的文章象潮水一样, 而且因为国内很少有能自己把关的研究组, 所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率. 在这种情况下, 估计这几年国际会议的录用率都会降下去. 另外, 以前的IJCAI是没有poster的, 03年开始, 为了减少被误杀的好人, 增加了2页纸的poster.值得一提的是, IJCAI是由貌似一个公司"IJCAI Inc."主办的(当然实际上并不是公司, 实际上是个基金会), 每次会议上要 发几个奖, 其中最重要的两个是IJCAI Research Excellence Award 和 Computer& Thoughts Award, 前者是终身成就奖, 每次一个人, 基本上是AI的最高奖(有趣的是, 以AI为主业拿图灵奖的6位中, 有2位还没得到这个奖), 后者是奖给35岁以下的青年科学家, 每次一个人. 这两个奖的获奖演说是每次IJCAI的一个重头戏.另外,IJCAI 的 PC member 相当于其他会议的area chair, 权力很大, 因为是由PC member 去找 reviewer 来审, 而不象一般会议的PC member其实就是 reviewer. 为了制约这种权力, IJCAI的审稿程序是每篇文章分配2位PC member, primary PC member去找3位reviewer, second PC member 找一位.

AAAI (1): 美国人工智能学会AAAI的年会. 是一个很好的会议, 但其档次不稳定, 可以给到1+, 也可以给到1-或者2+, 总的来说我给它"1". 这是因为它的开法完全受IJCAI制约: 每年开, 但如果这一年的IJCAI在北美举行, 那么就停开. 所以, 偶数年里因为没有IJCAI, 它就是最好的AI综合性会议, 但因为号召力毕竟比IJCAI要小一些,特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是), 所以比IJCAI还是要稍弱一点, 基本上在1和1+之间; 在奇数年, 如果IJCAI不在北美, AAAI自然就变成了比IJCAI低一级的会议(1-或2+), 例如2005年既有IJCAI又有AAAI, 两个会议就进行了协调, 使得IJCAI的录用通知时间比AAAI的deadline早那么几天, 这样IJCAI落选的文章可以投往AAAI.在审稿时IJCAI 的 PC chair也在一直催, 说大家一定要快, 因为AAAI那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了.

COLT (1): 这是计算学习理论最好的会议, ACM主办, 每年举行. 计算学习理论基本上可以看成理论计算机科学和机器学习的交叉, 所以这个会被一些人看成是理论计算机科学的会而不是AI的会. 我一个朋友用一句话对它进行了精彩的刻画: "一小群数学家在开会". 因为COLT的领域比较小, 所以每年会议基本上都是那些人. 这里顺便提一件有趣的事, 因为最近国内搞的会议太多太滥, 而且很多会议都是LNCS/LNAI出论文集, LNCS/LNAI基本上已经被搞臭了, 但很不幸的是, LNCS/LNAI中有一些很好的会议, 例如COLT.

CVPR (1): 计算机视觉和模式识别方面最好的会议之一, IEEE主办, 每年举行. 虽然题目上有计算机视觉, 但个人认为它的模式识别味道更重一些. 事实上它应该是模式识别最好的会议, 而在计算机视觉方面, 还有ICCV与之相当. IEEE一直有个倾向, 要把会办成"盛会", 历史上已经有些会被它从quality很好的会办成"盛会"了. CVPR搞不好也要走这条路. 这几年录的文章已经不少了. 最近负责CVPR会议的TC的chair发信说, 对这个community来说, 让好人被误杀比被坏人漏网更糟糕, 所以我们是不是要减少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了.

ICCV (1): 介绍CVPR的时候说过了, 计算机视觉方面最好的会之一. IEEE主办. ICCV逢奇数年开,开会地点以往是北美,欧洲和亚洲轮流,本来2003年定在北京,后来因Sars和原定05年的法国换了一下。ICCV'07年将首次在南美(巴西)举行.
CVPR原则上每年在北美开, 如果那年正好ICCV在北美,则该年没有CVPR.

ICML (1): 机器学习方面最好的会议之一. 现在是IMLS主办, 每年举行. 参见关于NIPS的介绍.

NIPS (1): 神经计算方面最好的会议之一, NIPS主办, 每年举行. 值得注意的是, 这个会每年的举办地都是一样的, 以前是美国丹佛, 现在是加拿大温哥华; 而且它是年底开会, 会开完后第2年才出论文集, 也就是说, NIPS'05的论文集是06年出. 会议的名字是"Advances in Neural Inxxxxation Processing Systems", 所以, 与ICMLECML这样的"标准的"机器学习会议不同, NIPS里有相当一部分神经科学的内容, 和机器学习有一定的距离. 但由于会议的主体内容是机器学习, 或者说与机器学习关系紧密, 所以不少人把NIPS看成是机器学习方面最好的会议之一. 这个会议基本上控制在MichaelJordan的徒子徒孙手中, 所以对Jordan系的人来说, 发NIPS并不是难事, 一些未必很强的工作也能发上去, 但对这个圈子之外的人来说, 想发一篇实在很难, 因为留给"外人"的口子很小. 所以对Jordan系以外的人来说, 发NIPS的难度比ICML更大. 换句话说,ICML比较开放, 小圈子的影响不象NIPS那么大, 所以北美和欧洲人都认, 而NIPS则有些人(特别是一些欧洲人, 包括一些大家)坚决不投稿. 这对会议本身当然并不是好事,但因为Jordan系很强大, 所以它似乎也不太care. 最近IMLS(国际机器学习学会)改选理事, 有资格提名的人包括近三年在ICMLECMLCOLT发过文章的人, NIPS则被排除在外了. 无论如何, 这是一个非常好的会.

ACL (1-): 计算语言学/自然语言处理方面最好的会议, ACL (Association of
Computational Linguistics) 主办, 每年开.

KR (1-): 知识表示和推理方面最好的会议之一, 实际上也是传统AI(即基于逻辑的AI)最好的会议之一. KR Inc.主办, 现在是偶数年开.

SIGIR (1-): 信息检索方面最好的会议, ACM主办, 每年开. 这个会现在小圈子气越来越重. 信息检索应该不算AI, 不过因为这里面用到机器学习越来越多, 最近几年甚至有点机器学习应用会议的味道了, 所以把它也列进来.

SIGKDD (1-): 数据挖掘方面最好的会议, ACM主办, 每年开. 这个会议历史比较短,毕竟, 与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿. 在几年前还很难把它列在tier-1里面, 一方面是名声远不及其他的top conference响亮, 另一方面是相对容易被录用. 但现在它被列在tier-1应该是毫无疑问的事情了. 这几年来KDD的质量都很高. SIGKDD从2000年来full paper的录取率都在10%-12%之间,远远低于IJCAI和ICML.
经常听人说,KDD要比IJICAI和ICML都要困难。IJICAI才6页,而KDD要10页。没有扎实系统的工作,很难不留下漏洞。有不少IJICAI的常客也每年都投KDD,可难得几个能经常中。

UAI (1-): 名字叫"人工智能中的不确定性", 涉及表示推理学习等很多方面, AUAI(Association of UAI) 主办, 每年开.

 

我知道的几个人工智能会议(二三流)

 

(原创为lilybbs.us上的daniel)
纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全. 同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的.

tier 2: tier-2的会议列得不全, 我熟悉的领域比较全一些.

AAMAS (2+): agent方面最好的会议. 但是现在agent已经是一个一般性的概念,几乎所有AI有关的会议上都有这方面的内容, 所以AAMAS下降的趋势非常明显.

ECCV (2+): 计算机视觉方面仅次于ICCV的会议, 因为这个领域发展很快, 有可能升级到1-去.

ECML (2+): 机器学习方面仅次于ICML的会议, 欧洲人极力捧场, 一些人认为它已经是1-了. 我保守一点, 仍然把它放在2+. 因为机器学习发展很快, 这个会议的reputation上升非常明显.

ICDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和SDM相当. 这个会只有5年历史, 上升速度之快非常惊人. 几年前ICDM还比不上PAKDD, 现在已经拉开很大距离了.

SDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和ICDM相当. SIAM的底子很厚,但在CS里面的影响比ACM和IEEE还是要小, SDM眼看着要被ICDM超过了, 但至少目前还是相当的.

ICAPS (2): 人工智能规划方面最好的会议, 是由以前的国际和欧洲规划会议合并来的. 因为这个领域逐渐变冷清, 影响比以前已经小了.

ICCBR (2): Case-Based Reasoning方面最好的会议. 因为领域不太大, 而且一直半冷不热, 所以总是停留在2上.

COLLING (2): 计算语言学/自然语言处理方面仅次于ACL的会, 但与ACL的差距比ICCV-ECCV和ICML-ECML大得多.

ECAI (2): 欧洲的人工智能综合型会议, 历史很久, 但因为有IJCAI/AAAI压着,
很难往上升.

ALT (2-): 有点象COLT的tier-2版, 但因为搞计算学习理论的人没多少, 做得好的数来数去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非计算学习理论的内容.

EMNLP (2-): 计算语言学/自然语言处理方面一个不错的会. 有些人认为与COLLING相当, 但我觉得它还是要弱一点.

ILP (2-): 归纳逻辑程序设计方面最好的会议. 但因为很多其他会议里都有ILP方面的内容, 所以它只能保住2-的位置了.

PKDD (2-): 欧洲的数据挖掘会议, 目前在数据挖掘会议里面排第4. 欧洲人很想把它抬起来, 所以这些年一直和ECML一起捆绑着开, 希望能借ECML把它带起来.但因为ICDM和SDM, 这已经不太可能了. 所以今年的PKDD和ECML虽然还是一起开, 但已经独立审稿了(以前是可以同时投两个会, 作者可以声明优先被哪个会考虑, 如果ECML中不了还可以被PKDD接受).


tier 3: 列得很不全. 另外, 因为AI的相关会议非常多, 所以能列在tier-3也算不错了, 基本上能进到所有AI会议中的前30%吧

ACCV (3+): 亚洲的计算机视觉会议, 在亚太级别的会议里算很好的了.

DS (3+): 日本人发起的一个接近数据挖掘的会议.

ECIR (3+): 欧洲的信息检索会议, 前几年还只是英国的信息检索会议.

ICTAI (3+): IEEE最主要的人工智能会议, 偏应用, 是被IEEE办烂的一个典型. 以前的quality还是不错的, 但是办得越久声誉反倒越差了, 糟糕的是似乎还在继续下滑, 现在其实3+已经不太呆得住了.

PAKDD (3+): 亚太数据挖掘会议, 目前在数据挖掘会议里排第5.

ICANN (3+): 欧洲的神经网络会议, 从quality来说是神经网络会议中最好的, 但这个领域的人不重视会议,在该领域它的重要性不如IJCNN.

AJCAI (3): 澳大利亚的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.

CAI (3): 加拿大的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.

CEC (3): 进化计算方面最重要的会议之一, 盛会型. IJCNN/CEC/FUZZ-IEEE这三个会议是计算智能或者说软计算方面最重要的会议, 它们经常一起开, 这时就叫WCCI (World Congress on Computational Intelligence). 但这个领域和CS其他分支不太一样, 倒是和其他学科相似, 只重视journal, 不重视会议, 所以录用率经常在85%左右, 所录文章既有quality非常高的论文, 也有入门新手的习作.

FUZZ-IEEE (3): 模糊方面最重要的会议, 盛会型, 参见CEC的介绍.

GECCO (3): 进化计算方面最重要的会议之一, 与CEC相当,盛会型.

ICASSP (3): 语音方面最重要的会议之一, 这个领域的人也不很care会议.

ICIP (3): 图像处理方面最著名的会议之一, 盛会型.

ICPR (3): 模式识别方面最著名的会议之一, 盛会型.

IEA/AIE (3): 人工智能应用会议. 一般的会议提名优秀论文的通常只有几篇文章, 被提名就已经是很高的荣誉了, 这个会很有趣, 每次都搞1、20篇的优秀论文提名, 专门搞几个session做被提名论文报告, 倒是很热闹.

IJCNN (3): 神经网络方面最重要的会议, 盛会型, 参见CEC的介绍.

IJNLP (3): 计算语言学/自然语言处理方面比较著名的一个会议.

没有更多推荐了,返回首页