精华内容
下载资源
问答
  • 针对当前电算化会计中财务异常数据检测系统中效率低下、人力及时间资源消耗大、智能化程度低等问题,文中提出了一种基于数据挖掘神经网络的财务异常数据监测分析算法。采用数据挖掘的方法对原始财务数据进行处理,...
  • 数据挖掘神经网络分析实验报告,里面有数据集实验报告,操纵步骤很详细!
  • 大嘴巴漫谈数据挖掘和解析卷积神经网络书籍,用来收藏。
  • /*神经网络SOM算法思想:分为输入层竞争层,输入层就是样本的输入,假如我现在有5个样本A,B,C,D,E,他们是5维向量,竞争层是10*10的二维平面,相当于100个神经元,这些神经元也是5维向量,这些神经元对输入向量进行...
    /*
    神经网络SOM算法思想:分为输入层和竞争层,输入层就是样本的输入,假如我现在有5个样本A,B,C,D,E,他们是5维向量,竞争层是10*10的二维平面,相当于100个神经元,这些神经元也是5维向量,这些神经元对输入向量进行竞争,最后只有一个神经元获胜,越是与输入向量相似,竞争力越强,假如现在位于(7,8)的神经元最相似,它有权力去修改以它为中心的神经元的值,越靠近它的神经元影响越大,越是接近获胜神经元。假如样本A对应的获胜神经元是(7,8),B对应的获胜神经元是(6,8),因为这两个神经元靠得很近,所以样本A和B很相似。如果C对应的获胜神经元是(1,1),与另外两个距离比较远,所以C与A,B相似度较低。
    */
    #include<fstream.h> #include<iomanip.h> #include<stdio.h> #include<cstdlib.h> #include<math.h> using namespace std; #define InputLayerNum 35 #define OutputLayerRow 8 #define OutputLayerColumn 12 #define total_iteration_Num 80 #define error_limit 0.0001 #define efficiency 0.9 int i,j,k,l,m,n; int inputMode[26][7][5]; double weight[OutputLayerRow*OutputLayerColumn][InputLayerNum]; int current_iteration_num=0; double study_efficiency=efficiency; double distance[OutputLayerRow*OutputLayerColumn]; int neighbor_width=OutputLayerColumn; int neighbor_height=OutputLayerRow; int row[OutputLayerRow],column[OutputLayerColumn]; int flag[OutputLayerRow][OutputLayerColumn]; int temp_row,temp_column; int winner_row,winner_column; double min_distance=1000.0; /****************************************************/ //该函数初始化距离变量为0,初始化保存生胜出节点的位置的变量 /****************************************************/ void init_distance(){ for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++) distance[i*OutputLayerColumn+j]=0.0; } /****************************************************/ //该函数用于计算欧氏距离,并找到获胜神经元 /****************************************************/ void eula_distance(){ int ttLow,ttUp,ppLow,ppUp; ttLow=winner_column-neighbor_width/2; ttUp=winner_column+neighbor_width/2; ppLow=winner_row-neighbor_height/2; ppUp=winner_row+neighbor_height/2; if(ttLow<0) ttLow=0; if(ttUp>=OutputLayerColumn) ttUp=OutputLayerColumn-1; if(ppLow<0) ppLow=0; if(ppUp>=OutputLayerRow) ppUp=OutputLayerRow-1; for(i=ppLow;i<=ppUp;i++) for(j=ttLow;j<=ttUp;j++){ if(!(flag[i][i]==100)){ for(m=0;m<7;m++) for(n=0;n<5;n++) distance[i*OutputLayerColumn+j]+=pow((inputMode[l][m][n]- weight[i*OutputLayerColumn+j][m*5+n]),2); if(distance[i*OutputLayerColumn+j]<min_distance){ min_distance=distance[i*OutputLayerColumn+j]; temp_row=i; temp_column=j; } } } if(current_iteration_num>0){ if(min_distance<=error_limit){ row[temp_row]=temp_row; row[temp_column]=temp_column; flag[temp_row][temp_column]=100; } } } /****************************************************/ //调整权值 /****************************************************/ void weight_change(){ int ttLow,ttUp,ppLow,ppUp; winner_row=temp_row; winner_column=temp_column; ttLow=winner_column-neighbor_width/2; ttUp=winner_column+neighbor_width/2; ppLow=winner_row-neighbor_height/2; ppUp=winner_row+neighbor_height/2; if(ttLow<0) ttLow=0; if(ttUp>=OutputLayerColumn) ttUp=OutputLayerColumn-1; if(ppLow<0) ppLow=0; if(ppUp>=OutputLayerRow) ppUp=OutputLayerRow-1; for(i=ppLow;i<=ppUp;i++) for(j=ttLow;j<=ttUp;j++){ if(!(flag[i][j]==100)){ for(m=0;m<7;m++) for(n=0;n<5;n++) weight[i*OutputLayerColumn+j][m*5+n]+= study_efficiency*(inputMode[l][m][n]-weight[i*OutputLayerColumn+j][m*5+n]); } } } /****************************************************/ //调整学习效率以及获胜节点的邻域大小 /****************************************************/ void paraChange(){ study_efficiency=study_efficiency*(1.0-((double)current_iteration_num)/total_iteration_Num); neighbor_width=(int)(neighbor_width*(1.0-((double)current_iteration_num)/total_iteration_Num)); neighbor_height=(int)(neighbor_height*(1.0-((double)current_iteration_num)/total_iteration_Num)); } /****************************************************/ //该函数用于将所有输入模式从文件中读入,并存放在数组inputMode中 //同时进行权值的初始化,采用随机赋值的方法 /****************************************************/ void initialize(){ for(i=0;i<OutputLayerRow;i++) row[i]=100; for(j=0;j<OutputLayerColumn;j++) column[j]=100; for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++) flag[i][j]=0; FILE *pf=fopen("输入数据.txt","a+"); if(pf==NULL){ cout<<"Can not input file!\n"; exit(0); } for(i=0;i<26;i++) for(j=0;j<7;j++) for(k=0;k<5;k++) fscanf(pf,"%d",&inputMode[i][j][k]); //用于测试是否能够正确读入输入模式 char character[26]; for(i=0;i<26;i++) character[i]=(65+i); ofstream mode("输出数据.txt",ios::out); for(i=0;i<26;i++){ mode<<character[i]<<'\n'<<endl; for(j=0;j<7;j++){ for(k=0;k<5;k++) mode<<inputMode[i][j][k]<<" "; mode<<"\n"; } mode<<"\n\n\n"; } //权值随机初始化,采用随机赋值的方法 for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++) for(k=0;k<InputLayerNum;k++) weight[i*OutputLayerColumn+j][k]=(double)(rand()%101)/100.0; //用于测试是否能够正确初始化权值 ofstream quan("初始权值.txt",ios::out); for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++){ quan<<"\n\n\n"<<"Node["<<i+1<<"]["<<j+1<<"]"<<"\n"; for(k=0;k<InputLayerNum;k++){ if(k%5==0) quan<<"\n"; quan<<setprecision(6)<<setiosflags(ios::fixed)<<weight[i*OutputLayerColumn+j][k]<<" "; } quan<<"\n\n\n"; } } int main(){ int iteration_numbers[26]; int total_num=0; char character[26]; void test_netWork_1(); void test_netWork_2(); for(l=0;l<26;l++){ iteration_numbers[l]=0; character[l]=(65+l); } initialize(); for(l=0;l<26;l++){ winner_row=OutputLayerRow/2; winner_column=OutputLayerColumn/2; while(current_iteration_num<total_iteration_Num){//迭代次数控制 init_distance(); eula_distance(); weight_change(); if(min_distance<=error_limit) break; ++current_iteration_num; paraChange(); } iteration_numbers[l]=current_iteration_num+1; neighbor_width=OutputLayerColumn; //修改邻域的宽度 neighbor_height=OutputLayerRow; //修改邻域的高度 study_efficiency=efficiency; //学习率重置 current_iteration_num=0; //重置迭代次数 min_distance=1000.0; //重置最小距离 } /***********************************/ //输出部分 /***********************************/ for(l=0;l<26;l++) total_num+=iteration_numbers[l]; ofstream iteration_num("迭代次数.txt",ios::out); for(l=0;l<26;l++){ iteration_num<<character[l]<<"迭代"<<iteration_numbers[l]<<"次!\n"<<endl; if(l==25) iteration_num<<"整个训练过程共迭代"<<total_num<<"次!\n"<<endl; } ofstream all_weight("训练后所有权值.txt",ios::out); ofstream winner_weight("训练后胜出权值.txt",ios::out); for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++){ printf("\n\n\n"); all_weight<<"\n\n\n"<<"Node["<<i+1<<"]["<<j+1<<"]"<<"\n"; for(k=0;k<InputLayerNum;k++){ if(k%5==0){ printf("\n"); all_weight<<"\n"; } if(weight[i*OutputLayerColumn+j][k]>0.9999999) weight[i*OutputLayerColumn+j][k]=1.0; if(weight[i*OutputLayerColumn+j][k]<0.0000001) weight[i*OutputLayerColumn+j][k]=0.0; printf("%f ",weight[i*OutputLayerColumn+j][k]); all_weight<<setprecision(8)<<setiosflags(ios::fixed)<<weight[i*OutputLayerColumn+j][k]<<" "; } } ofstream winner_node("获胜节点.txt",ios::out); for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++){ if(flag[i][j]==100){ //获胜节点 printf("\n\n\n"); winner_weight<<"\n\n\n"<<"Node["<<i+1<<"]["<<j+1<<"]"<<"\n"; for(k=0;k<InputLayerNum;k++){ if(k%5==0){ printf("\n"); winner_weight<<"\n"; } if(weight[i*OutputLayerColumn+j][k]>0.9999999) weight[i*OutputLayerColumn+j][k]=1.0; if(weight[i*OutputLayerColumn+j][k]<0.0000001) weight[i*OutputLayerColumn+j][k]=0.0; printf("%f ",weight[i*OutputLayerColumn+j][k]); winner_weight<<setprecision(8)<<setiosflags(ios::fixed)<<weight[i*OutputLayerColumn+j][k]<<" "; } winner_node<<"Node["<<i+1<<"]["<<j+1<<"]"<<endl; } } printf("\n"); test_netWork_1(); test_netWork_2(); return 0; } void test_netWork_1(){ ofstream test1("标准测试.txt",ios::out); char character[26]; for(i=0;i<26;i++) character[i]=(65+i); for(l=0;l<26;l++){ for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++) distance[i*OutputLayerColumn+j]=0.0; min_distance=1000; for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++){ for(m=0;m<7;m++) for(n=0;n<5;n++) distance[i*OutputLayerColumn+j]+=pow(inputMode[l][m][n]-weight[i*OutputLayerColumn+j][m*5+n],2); if(distance[i*OutputLayerColumn+j]<min_distance){ min_distance=distance[i*OutputLayerColumn+j]; temp_row=i; temp_column=j; } } test1<<character[l]<<"'s winner is Node["<<temp_row+1<<"]["<<temp_column+1<<"]"<<endl<<endl; } } /****************************************************/ //利用非标准数据测试训练后的网络 /****************************************************/ void test_netWork_2(){ ofstream test2("非标准测试.txt",ios::out); char character[26]; FILe *pf=fopen("非标准数据测试.txt","a+"); if(pf==NULL){ cout<<"Can not open input file!\n"; exit(0); } for(i=0;i<26;i++) for(j=0;j<7;j++) for(k=0;k<5;k++) fscanf(pf,"%d",&inputMode[i][j][k]); for(i=0;i<26;i++) character[i]=(65+i); for(l=0;l<26;l++){ for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++) distance[i*OutputLayerColumn+j]=0.0; min_distance=1000; for(i=0;i<OutputLayerRow;i++) for(j=0;j<OutputLayerColumn;j++){ for(m=0;m<7;m++) for(n=0;n<5;n++) distance[i*OutputLayerColumn+j]+=pow(inputMode[l][m][n]-weight[i*OutputLayerColumn+j][m*5+n],2); if(distance[i*OutputLayerColumn+j]<min_distance){ min_distance=distance[i*OutputLayerColumn+j]; temp_row=i; temp_column=j; } } test2<<character[l]<<"'s winner is Node["<<temp_row+1<<"]["<<temp_column+1<<"]"<<endl<<endl; } }

     

    转载于:https://www.cnblogs.com/wust-ouyangli/p/6571900.html

    展开全文
  • 数据挖掘和神经网络结合的论文,但愿对你们有帮助
  • 用c++实现了数据挖掘算法中的神经网络和遗传算法的结合的实例!值得参考···
  • 神经网络算法是数据挖掘技术中常用的一种算法,具有高正确率、抗噪声数据能力强等优势。SQL Server 2005为我们提供了一种简单的方式来应用神经网络算法。我的毕设课题就是在SQL Management Studio、BI Dev Studio等...
  • 数据挖掘——SVM和神经网络

    千次阅读 2016-07-28 17:16:37
    SVM是最优秀、准确而健壮的算法之一,维度不敏感,可处理线性可分线性不可分数据。分为SVCSVR。 优势:分类性能好、稳定性高、算法更新快。 一般选择RBF作为核函数。 SVM分类决策中起决定作用的是支持向量。 ...

    SVM是最优秀、准确而健壮的算法之一,维度不敏感,可处理线性可分和线性不可分数据。分为SVC和SVR。

    优势:分类性能好、稳定性高、算法更新快。

    一般选择RBF作为核函数。

    SVM分类决策中起决定作用的是支持向量。

    关键优化参数:

    C:惩罚系数,值越高,惩罚程度越大,误差容忍力越差。

    Gamma:影响每个支持向量对应的高斯的作用范围,值越大,泛化性能越差。

    限制:

    计算的复杂性取决于支持向量的数目,大规模训练样本难以实现。

    用SVM解决多分类问题存在困难。


    神经网络是进行分布式并行信息处理的算法模型,依靠系统的复杂程度,通过调整内部大量节点之间相互相互连接的关系,达到处理信息的目的。

    使用范围:只能预测二项式数据,数值型数据。

    过程:复杂,输入层->隐藏层->输出层

    参数:训练周期、学习速率、动量、衰减。


    二者对比:二者都是“二标签”分类任务

    神经网络:“黑匣子”,基于经验风险最小化,易陷入局部最优,适合大样本。

    SVM:理论基础扎实,基于结构风险最小化,泛化能力较好,具有全局最优性,适合小样本。

    展开全文
  • 神经网络和数据挖掘的入门教材
  • 神经网络的方法不常用于数据挖掘任务,因为他们可能具有复杂的结构,训练时间长,不易理解的结果表示常产生不可理解的模型,然而,神经网络具有对噪声数据的高承受能力高精确度,是数据挖掘中的优先考虑。...
  • 神经网络 数绝挖掘课程设计,本系统包括很多的架构具体代码,可是直接使用
  • 着重分析了自组织数据挖掘与人工神经网络方法对系统的先验知识的利用 ,算法过程以及推广能力方面的差别 ,显示了自组织数据挖掘方法具有能同时利用关于系统的先验知识...
  •  从机器学习的核心视角来看,优化(optimization)统计(statistics)是其最最重要得两项支撑技术。当然,在人工智能领域“专家遍地走、大师多如狗”的今天,大家都醉心于“二十一天精通人工智能”这样的目标,并没有...


           简单来说,这几个概念的关系如上图所示。

      从机器学习的核心视角来看,优化(optimization)和统计(statistics)是其最最重要得两项支撑技术。当然,在人工智能领域“专家遍地走、大师多如狗”的今天,大家都醉心于“二十一天精通人工智能”这样的目标,并没有多少人讨论这些基础技术的重要性。不过,负责任地说,要想成为机器学习领域真正的专家,对这两项基础从原理到实践的深入掌握,是必不可少的。

      至于神经网络,或者以此为基础的深度学习,是机器学习的一个分支方法。这个分支的重要程度如此之高,以至于大家可能把它当成了机器学习的同义词。不过,在数据量不那么充分的领域,非深度学习的模型和方法还是有许多应用场景。总之,这两者的逻辑关系肯定是包含的关系。

      人工智能、模式识别和数据挖掘,这三个是应用层面的概念,他们的概念互有交叠,产生背景和发展历史有所不同,但使用的工具又是相通的:

      人工智能是六十年前达特茅斯会议提出的问题,最初的目标在于让机器解决听、看、理解、思考等人类智能行为问题。人工智能的假想敌——人类,恰恰由于多年的进化,在这些问题上能力非常强,所以人工智能从诞生那一天起就面临着巨大的挑战,三起三落才有所突破。

      数据挖掘更多地是解决生产、金融、互联网等领域高维数据的缄默与规律发现,在最近几年人工智能概念的外延被大大拓展以后,这些面向高维数据的问题也被称为“超人工智能”问题。另外一个不同点,人工智能往往倾向于机器决策的“自动化(Automation)”方法论,而数据挖掘最初倾向于辅助人类决策的“洞察(insight)”方法论。不过今天来看,只有机器自动决策才是王道。

      模式识别是早年间自动化领域提出的一个应用概念,相当于机器学习中的分类、聚类等概念的具体应用,由于场景适用面较窄,目前多为人工智能这个更宽泛的概念所替代了。


    计算机视觉与图像处理、模式识别和机器学习,之间有什么关系?
    http://www.duozhishidai.com/article-4119-1.html
    人工智能,机器学习和深度学习之间,主要有什么差异
    http://www.duozhishidai.com/article-15858-1.html
    大数据人工智能领域,如何从菜鸟晋级为大神
    http://www.duozhishidai.com/article-1427-1.html

     

    展开全文
  • 通过介绍评定模型,随机梯度下降法,生物启发感知器系统,讲师用视图数学解析式详细地讲解了神经网络的运行过程以及原理. 课程大纲: 1、Stochastic Gradient Descent ( 随机梯度下降法 ) 2、Neural ...

    转载自:http://blog.csdn.net/feitianhu213/article/details/39899463

    课程简介:

    本节课主要介绍人工神经网络.通过介绍评定模型,随机梯度下降法,生物启发和感知器系统,讲师用视图和数学解析式详细地讲解了神经网络的运行过程以及原理.

    课程大纲:

    1、Stochastic Gradient Descent ( 随机梯度下降法 )

    2、Neural Network Model ( 神经网络模型 )

    3、Backpropagation Algorithm ( 反向传播算法 )

    4、Summarize 

    1、Stochastic Gradient Descent 

    在上一节课里,我们利用梯度下降法找到最优的方向,然后向该方向移动一小步,但是很有可能会导致陷入一个差的局部最优解,而且每次移动都要计算全部的点,因此计算量大。那如果每次移动只看一个点,根据当前的点找到最优的方向进行移动,当所有的点都被选择后,理论上总的移动方向是跟之前的方法一致的,因为数学期望是相等的。但是利用随机的选取一个点,却有可能让我们逃脱非常差的局部最优点的陷阱,当然无法逃脱全部的陷阱。那是因为当你随便选取一点的时候,它的方向并不一定就是最优化的那个方向,因此下一步有可能移动到高点去,然后在新的位置重新寻找出路,这样就有更大的可能性获得较好的局部最优点。考虑下面的图片,在左图中,当我们第一次选择的初始化位置是第一个黑点的时候,那么根据整体梯度下降法,就会陷入那个非常糟糕的局部嘴有点去了。然而如果我们选择的是随机梯度下降法,就有可能因为某个点的方向是偏离最优点的而使得前进的方向是想着右边的,这样就可以跳过该陷阱了。由图中,根据整体梯度下降法,当遇到平缓区域的时候,该方法就会认为找到最优点了,就会停滞不前。而随机梯度下降法却由于不同点的方向不一致从而推动了算法继续向前移动,于是我们再次逃脱了该陷阱了。


    应用随机梯度下降法有如下好处:

    1、计算代价小,因为每次只选取一个点进行计算

    2、随机性有助于逃脱局部最小点,找到较好的最小点

    3、简单,因为每次只选取一个点进行计算

    2、Neural Network Model ( 神经网络模型 )

    在学习感知器模型的时候我们知道当输入数据点超过三个的时候,最坏情况下我们没办法把所有的点全部正确分类,即 dVC = 3。然而如果利用两个感知器模型进行分类,然后再综合这两个模型的结果得到最总的结果,我们就有办法把所有的 4 个点全部分类,如下图:

    对于更多的点,我们可以利用更多的模型进行分类。通过综合不同模型的结果,就有可能通过感知器模型找到最优的解(权重)。

    利用以下图形进行直观的解释:

    上图中共有第一列是输入,后面三列表示三层模型,共 5 个感知器模型(每个圆圈表示一个感知器模型,也叫一个神经元或节点)。最后的感知器输出的就是最终的结果。

    每一条线上都有一些数值,这些便是我们需要学习的权重(参数),开始的时候是未知的。上述模型其实就是一个神经网络。

    理论上通过这些感知器的排列组合(任意个),可以产生任何输出。

    定义:

    神经网络的模型是通过组合不同的简单模型而得到的一个综合的模型,组合方式如下图所示:

    其中第一列是输入数据,最右边的是输出,剩下的是隐藏层,该网络的层次 L = 3.

    每条线表示一个权值,需要学习确定,而每个 θ 表示一个模型(任何模型,可以互不相等),每条线所属的层次跟其所指向的模型所在的层次相同.

    下一层模型的输入是上一层模型的输出乘上对应的权值(所在的线的值)。

    为了方便对神经网路进行讨论,这里假定每个模型的 θ(s) = (1-e^s)/(1+e^s), 处理的数据是二分类。

    此外,定义如下符号:

    w是我们需要学习的参数,对应图中的线,上标 l 表示当前的 w 属于第 l 层,下标表示该线出发的节点位置。j 表示该线指向的节点位置。值得注意的是 i 的取值范围,之所以能够去得到 i 是因为存在常数项: x0

    于是我们有:

    其中 x 表示输出,s 表示输入。

    当 l = 0 的时候表示的是原始的数据,这时候 0 < j < d + 1

    对 x 的求解是一个递归的过程,先求出第 1 层,再求第二层...直到最终输出。

    该模型要解决如下两大难题:

    1、generalization:众多的模型、参数、权重等导致自由度很大,正如在误差偏差分析里面所讲到的,假设集大会增大找到最优函数的难度。

    2、optimization:应该如何进行学习才能把这么多参数学好?

    第三部分将设法解决上述问题。

    3、Backpropagation Algorithm ( 反向传播算法 )

    这一部分基本是数学分析,看得有点晕,理解的也不是很好,只能是不断地截图了...

    利用随机梯度下降法,每次只关注一个点。因此我们需要找出 Ein(W) 关于每一个数据的偏微分:▽e(W)。其中 e(W) = (h(xn),yn)。方便起见,令 e(W) = ( h(xn) - yn)^2(理论上可以用一切有效的误差度量函数)。

    有  = 

    因为 Sj(l) = Xi(l-1) * Wij(l) 所以(注:这里的 (l) 表示的是上标为 l ):令  

    当 l = 1 的时候 Xi(l) 表示的是原始输入的数据,因此我们可以递归的求得上述等式右边的第二项,只要我们能够求出第一项就可以对 w 进行学习了。

    为了求出第一项,先从最后一层开始,因为最后一层距离整个算法的输出最接近,且  θ(S1(L)) 就是 X1(L),( 注:其中 L 是上标 ),有:

    当最后一层求出后,便可以递归的求出前面的值了。如下:( 之所以要求和是因为位于 l-1 层的节点受到 l 层的所有节点的反馈)

    下面是伪代码:

    总结:

    第一部分承接了上一节课,介绍了一种更好的梯度测量方法,也为神经网络参数学习打下了基础。第二部分主要是介绍神经网络的基本概念及作用。最后一部分是基于数学的分析,从而把神经网络模型转换到计算机可以处理的层面,因此最后一部分是理论联系实际。


    展开全文
  • /*人工神经网络BP算法思想: 神经网络一般分为3层(也可以多层),包括输入层,隐含层输出层。通过有监督的学习拟合非线性函数。假如输入层有3个神经元,隐含层有5个神经元,输出层有1个神经元。有监督的学习是指既...
  • 介绍了数据挖掘的定义常用方法,研究了基于遗传BP神经网络数据挖掘算法,并对其交叉算子进行了改进,提高算法训练速度。实验结果表明,将该方法应用于油气识别中,效果良好,具有一定的实际应用价值。
  • 神经网络:全称为人工神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构功能的数学模型或计算模型 生物神经网络:神经细胞是构成神经系统的基本单元,称为生物神经元,简称神经元 ...
  • 如何能够更有效的利用好这些信息已经越来越受到人们的重视而数据挖掘正是一种从数据中提取有用的信息,并将之应用于各个行业的方法本文首先对数据挖掘中受到广泛关注的决策树算法遗传算法和神经网络算法进行了综述,...
  • 对研究神经网络和数据挖掘的研究者,该文献主要利用先验知识,观察数据样本的信息的良好性能。是研究复杂系统的一条重要途径。
  • 本篇我们将要总结的算法为:Microsoft 神经网络分析算法,此算法微软挖掘算法系列中最复杂也是应用场景最广泛的一个,简单点讲:就是模拟我们的大脑从茫茫的数据海洋中思考出有用的信息,来达到数据挖掘的目的。...
  • 集成粗集神经网络的数据挖掘研究,韦伟,,集成粗集理论和神经网络技术进行数据挖掘是当前研究的一个重要分支。其集成方式主要有4种:利用约简减少网络输入节点、利用约简��
  • % 线性神经网络采用widow-hoff学习规则,即lms(least mean square)来更新权值偏置%% 1.newlind--设计一个线性层 %{ 语法格式: net=newlind(P,T,Pi) P: R×Q矩阵,包含Q个训练输入向量 T: S×Q矩
  • 通过介绍评定模型,随机梯度下降法,生物启示感知器系统,讲师用视图数学解析式具体地解说了神经网络的执行过程以及原理. 课程大纲: 1、Stochastic Gradient Descent ( 随机梯度下降法 ) 2、Neural Network ...
  • nnet包提供了最常见的前馈反向传播神经网络算法,构建单隐层神经网络; AMORE包则进一步提供了更为丰富的控制参数,并可以增加多个隐层; neuralnet包的改进在于提供了弹性反向传播算法更多的激活函数形式。 一、...
  • 目前数据挖掘方法主要有4种,这四种算法包括遗传、决策树、粗糙集和神经网络算法。以下对这四种算法进行一一解释说明。 遗传算法:该算法依据生物学领域的自然选择规律以及遗传的机理发展而来,是一种随机搜索的算法...
  • 这篇案例用人工神经网络算法对铅酸电池制造业的OEE统计情况进行分析:对OEE记录数据集进行训练,用训练好的模型对测试集测试,预测OEE。 OEE:设备综合效率,即表现设备实际的生产能力相对于理论产能的比率,是一种...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,129
精华内容 451
关键字:

数据挖掘和神经网络