精华内容
下载资源
问答
  • 科技政策研究初探论文提纲范文 政策科学是一门比较晚近的综合性学科,作为其分支的科技政策研究正是在近几十年随着科学技术的发展而有了迅速地发展。正确、系统地认识科学技术发展及其与社会相互作用的规律,并采取...
  • 高师写作教学的职业性特色初探论文 摘要:高等师范院校的写作课教学长期定位在提高学生的写作能力上,使得课程教学失去了师范特色,并陷于尴尬的处境。我们“高师写作教学的职业性特色研究”课题组,从培养目标出发...
  • 市场营销课程改革初探营销论文 传统的市场营销课程教学在教学手段上是运用“粉笔+黑板”,在教学方法上,是以教师为中心,其特点是通过讲授、板书及教学媒体的辅助,把市场营销的思想及重要知识点和实践方法传递给...
  • GAN初探论文Generative Adversarial Nets阅读笔记)证明最终收敛于pG=pdatap_G=p_{data}pG​=pdata​证明上述算法流程就等同于对(1)式进行优化实验代码(参考...(https://gitee.co...


     放假一直比较颓,没有更新相关的博客笔记。今天弄一点新东西,就是比较火的GAN——生成对抗神经网络。
     GAN的逻辑主要是有两个系统组成。一个是G层,其主要目的是训练相应的参数,达到模拟真实数据生成的效果。另外一个是D层,其目的是对于输入D层的数据进行训练,判断其 是真实数据产生而不是G层产生的概率。
     所以生成对抗网络,最终要优化的式子便是下式:
    在这里插入图片描述
     在这个式子当中,首先,对于D层来说,我们希望他的判断能力非常准确,那么判断能力越好,Expdata(x)[logD(x)]E_{x\thicksim p_{data}(x)}[\log D(x)]这一项应该越大,同时D(G(z))D(G(z))应当越小,所以Ezpz(z)[log(1D(G(z))]E_{z\thicksim p_z(z)}[\log (1-D(G(z))]这一项应当越大,故我们需要找适合的参数D来最大化上面的1式。其次,对于G来说,我们希望G接近于真实数据的生成分布,所以希望"G能够蒙骗住D层",故希望上式寻找合适的G,使其最小化。
     在大致了解了论文提出的“生成对抗”思想和需要优化的公式之后我们开始重点看如下两个问题:

    • 证明根据上述的优化公式得到的最终优化结果就是pG=pdatap_G=p_{data}
    • 证明根据论文所提出的算法步骤
      在这里插入图片描述
      得到的最终结果就是pG=pdatap_G=p_{data}

    证明最终收敛于pG=pdatap_G=p_{data}

     注意在训练过程中,有如下式子成立:在这里插入图片描述
    在这个式子当中,主要是将pz(z)p_z(z)pg(x)p_g(x)之间的关系做了变换。
    对于上式可以根据对数函数当中alog(y)+blog(1y)a\log (y)+b\log (1-y),其最大值是在y取aa+b\frac{a}{a+b}时取到,所以式子变为下述模样:
    在这里插入图片描述
    接下来我们要证明pg=pdatap_g=p_{data}时是上式的最小值。注意在pg=pdatap_g=p_{data}时,上式得到一个值log4-\log 4
    C(G)C(G)的基础上减掉Expdata(x)[log2]+Ezpz(z)[log2]E_{x\thicksim p_{data}(x)}[-\log 2]+E_{z\thicksim p_z(z)}[-\log 2]可以得到如下式子:
    在这里插入图片描述
    其可以化简为:在这里插入图片描述
    其中JSD这一项往往是非负的,所以得到其最小值。

    证明上述算法流程就等同于对(1)式进行优化

     论文中指出,将其V(G,D)V(G,D)看作pgp_g的函数,那么pgp_g作最优化,相当于在D取最优值的时候,对其通过梯度回传的方式优化pgp_g,而对D进行最优化的方式,就如算法1当中所示。所以上述算法流程等同于对(1)进行优化。

    实验代码(参考https://gitee.com/xiaonaw/PyTorch-GAN/blob/master/implementations/gan/gan.py

    import argparse
    import os
    import numpy as np
    import math
    
    import torchvision.transforms as transforms
    from torchvision.utils import save_image
    
    from torch.utils.data import DataLoader
    from torchvision import datasets
    from torch.autograd import Variable
    
    import torch.nn as nn
    import torch.nn.functional as F
    import torch
    
    os.makedirs("images", exist_ok=True)
    
    parser = argparse.ArgumentParser()
    parser.add_argument("--n_epochs", type=int, default=200, help="number of epochs of training")
    parser.add_argument("--batch_size", type=int, default=64, help="size of the batches")
    parser.add_argument("--lr", type=float, default=0.0002, help="adam: learning rate")
    parser.add_argument("--b1", type=float, default=0.5, help="adam: decay of first order momentum of gradient")
    parser.add_argument("--b2", type=float, default=0.999, help="adam: decay of first order momentum of gradient")
    parser.add_argument("--n_cpu", type=int, default=8, help="number of cpu threads to use during batch generation")
    parser.add_argument("--latent_dim", type=int, default=100, help="dimensionality of the latent space")
    parser.add_argument("--img_size", type=int, default=28, help="size of each image dimension")
    parser.add_argument("--channels", type=int, default=1, help="number of image channels")
    parser.add_argument("--sample_interval", type=int, default=400, help="interval betwen image samples")
    opt = parser.parse_args()
    print(opt)
    
    img_shape = (opt.channels, opt.img_size, opt.img_size)
    
    cuda = True if torch.cuda.is_available() else False
    
    
    class Generator(nn.Module):
        def __init__(self):
            super(Generator, self).__init__()
    
            def block(in_feat, out_feat, normalize=True):
                layers = [nn.Linear(in_feat, out_feat)]
                if normalize:
                    layers.append(nn.BatchNorm1d(out_feat, 0.8))
                layers.append(nn.LeakyReLU(0.2, inplace=True))
                return layers
    
            self.model = nn.Sequential(
                *block(opt.latent_dim, 128, normalize=False),
                *block(128, 256),
                *block(256, 512),
                *block(512, 1024),
                nn.Linear(1024, int(np.prod(img_shape))),
                nn.Tanh()
            )
    
        def forward(self, z):
            img = self.model(z)
            img = img.view(img.size(0), *img_shape)
            return img
    
    
    class Discriminator(nn.Module):
        def __init__(self):
            super(Discriminator, self).__init__()
    
            self.model = nn.Sequential(
                nn.Linear(int(np.prod(img_shape)), 512),
                nn.LeakyReLU(0.2, inplace=True),
                nn.Linear(512, 256),
                nn.LeakyReLU(0.2, inplace=True),
                nn.Linear(256, 1),
                nn.Sigmoid(),
            )
    
        def forward(self, img):
            img_flat = img.view(img.size(0), -1)
            validity = self.model(img_flat)
    
            return validity
    
    
    # Loss function
    adversarial_loss = torch.nn.BCELoss()
    
    # Initialize generator and discriminator
    generator = Generator()
    discriminator = Discriminator()
    
    if cuda:
        generator.cuda()
        discriminator.cuda()
        adversarial_loss.cuda()
    
    # Configure data loader
    os.makedirs("../../data/mnist", exist_ok=True)
    dataloader = torch.utils.data.DataLoader(
        datasets.MNIST(
            "../../data/mnist",
            train=True,
            download=True,
            transform=transforms.Compose(
                [transforms.Resize(opt.img_size), transforms.ToTensor(), transforms.Normalize([0.5], [0.5])]
            ),
        ),
        batch_size=opt.batch_size,
        shuffle=True,
    )
    
    # Optimizers
    optimizer_G = torch.optim.Adam(generator.parameters(), lr=opt.lr, betas=(opt.b1, opt.b2))
    optimizer_D = torch.optim.Adam(discriminator.parameters(), lr=opt.lr, betas=(opt.b1, opt.b2))
    
    Tensor = torch.cuda.FloatTensor if cuda else torch.FloatTensor
    
    # ----------
    #  Training
    # ----------
    
    for epoch in range(opt.n_epochs):
        for i, (imgs, _) in enumerate(dataloader):
    
            # Adversarial ground truths
            valid = Variable(Tensor(imgs.size(0), 1).fill_(1.0), requires_grad=False)
            fake = Variable(Tensor(imgs.size(0), 1).fill_(0.0), requires_grad=False)
    
            # Configure input
            real_imgs = Variable(imgs.type(Tensor))
    
            # -----------------
            #  Train Generator
            # -----------------
    
            optimizer_G.zero_grad()
    
            # Sample noise as generator input
            z = Variable(Tensor(np.random.normal(0, 1, (imgs.shape[0], opt.latent_dim))))
    
            # Generate a batch of images
            gen_imgs = generator(z)
    
            # Loss measures generator's ability to fool the discriminator
            g_loss = adversarial_loss(discriminator(gen_imgs), valid)
    
            g_loss.backward()
            optimizer_G.step()
    
            # ---------------------
            #  Train Discriminator
            # ---------------------
    
            optimizer_D.zero_grad()
    
            # Measure discriminator's ability to classify real from generated samples
            real_loss = adversarial_loss(discriminator(real_imgs), valid)
            fake_loss = adversarial_loss(discriminator(gen_imgs.detach()), fake)
            d_loss = (real_loss + fake_loss) / 2
    
            d_loss.backward()
            optimizer_D.step()
    
            print(
                "[Epoch %d/%d] [Batch %d/%d] [D loss: %f] [G loss: %f]"
                % (epoch, opt.n_epochs, i, len(dataloader), d_loss.item(), g_loss.item())
            )
    
            batches_done = epoch * len(dataloader) + i
            if batches_done % opt.sample_interval == 0:
                save_image(gen_imgs.data[:25], "images/%d.png" % batches_done, nrow=5, normalize=True)
    

    实验结果图展示

    迭代200次后的结果

    展开全文
  • 你还在寻找财务分析论文:财务内部控制制度初探吗?在这里,为大家整理收录了财务分析论文:财...该文档为财务分析论文:财务内部控制制度初探,是一份很不错的参考资料,具有较高参考价值,感兴趣的可以下载看看
  • 论文研究-定性决策模型初探.pdf,
  • 《机器学习与计算力学的结合及应用初探论文学习 本文是对《机器学习与计算力学的结合及应用初探论文的一个知识点的整理。 摘要: 1. 介绍了机器学习、数据科学与计算力学相结合的3种形式: 第一种是与有限...

    本文是对《机器学习与计算力学的结合及应用初探 》论文的一个知识点的整理。

    摘要:

    1. 介绍了机器学习、数据科学与计算力学相结合的3种形式:

    • 第一种是与有限元方程求解方面的结合, 直接应用卷积 神经网络算法求解线性有限元方程;
    • 第二种方式结合有限元计算和机器学习预测复杂材料结构与力学性能的关 系. 本文作者应用该方法基于细观页岩扫描照片和随机建模算法, 成功训练出可以有效预测细观页岩样本等效模 量的卷积神经网络;
    • 第三种方式是建立基于数据驱动的计算力学方法, 比如直接利用真实的材料实验数据代替材 料本构模型.

    2. 关键词: 机器学习, 数据驱动, 人工神经网络, 计算力学, 有限单元法

    引入&神经网络介绍:

    1. 有限单元法

    将连续求解 区域划分为离散单元, 将求解连续模型上的偏微分 方程转换为求解离散模型上的积分方程, 通过离散 单元上的近似解逼近连续模型的真实解

    2. 计算力学方法

    计算力学方法的出现使求解具有更复杂的几何模型和边界 条件的问题成为可能.

    3. 常见机器学习方法:

    感知器[3]、遗传编程[4]、蒙特卡罗方法[5]、K-近邻 算法(K-nearest neighbor, K-NN)[6]、线性回归 [7]、逻辑回归[8]、自适应增强[10]和支持向量机[11,12]等

    • 线性回归方法使用线性函数对 数据集进行拟合, 通过梯度下降法优化小二乘误 差函数, 一般采用均方差函数描述误差. 该方法计算 简单且易于实现, 但其固有缺点是无法拟合非线性 数据[7].
    • 逻辑回归是一种用于解决分类问题的判别式 模型, 它与线性回归相比大的区别在于引入非线 性函数, 不要求训练数据满足线性关系, 一般使用分 类交叉熵作为误差函数. 其缺点是对于多分类问题 的拟合精度欠佳[8,9].
    • K-近邻算法基于特征空间内与 目标样本相似(或临近)的k个样本的类别对目标 样本进行分类[13]. 该方法需要记录所有训练数据, 导致计算成本较高, 且结果比较依赖于k的取值[14]. 但该方法同时拥有以下优点: 简单易用、准确度高、可以用于分类和回归问题
    • 支持向量机的目标是在 高维度特征空间寻找优的划分超平面. 该方法适 用于处理高维度样本数据, 被广泛应用于文本分类 和图像识别领域[15]. 其性能依赖于核函数的选取[16], 另外对于大量样本的计算性能还有待提高
    • 自适 应增强方法在迭代训练时关注之前分类错误的样本, 通过不断修正之前的错误分类结果, 终将每个迭 代步训练得到的弱分类器基于权重叠加为一个强分 类器. 该方法的分类精度高且不容易过拟合, 但缺点 是模型训练时间较长[18].

    4. 人工神经网络 发展过程:

    • 建立了感知器 (perceptron)的模型, 该模型也被普遍认为是现代人工 神经网络的前身.
    • 首次提出了基于感知器的多层网络模型, 并在模型 中应用了非线性多项式函数.
    • 提出了反向传 播算法. 该算法后来逐步发展为现代深度神经网络 的核心组成部分.
    • 提出了基于受限玻尔兹曼机(restricted Boltzmann machine, RBM)的神经网络模型且首次明确地提出深 度学习的概念. 该模型通过训练包括多个中间层的 神经网络, 可以有效地提取高维度数据样本的特征, 实现了数据从高维度到低维度的变换.

    5. 与常规机器学习方法比较优点:

    • 人工神经网络模 型使用了非线性激活函数,
    • 利用多层网络结构引入 了大量可调节参数,
    • 通过梯度下降算法挖掘蕴含于 大量训练数据中的非线性关系,
    • 可获得良好的 分类和回归精度, 且对噪音数据不敏感, 具有一定的 概括和推广能力

    卷积神经网络在线性有限元求解中的应用

    1. 人工神经网络核心思想:

    构建一个包括大量待定参数的网络结构, 通过梯度 下降算法寻找优的网络参数组合, 使得误差函数 达到极值.

    2. 通过梯度下降算法寻找最优的网络参数组合, 使得误差函数 达到极值.

    3. 传统人工神经网络的基本原理,

     

    • 人工 神经网络中一般包括一个输入层、一个输出层和若干 中间隐层.
    • 网络中的每一个圆代表一个神经元. 神经 元的值称为“激活”. 两个神经元之间的连接线称为 权重
    • 神经元的值由上一层神经元的值与两层神经 元之间的权重计算得到

     

    4. 卷积神经网络基本原理

    • 卷积神经网络(convolutional neural network, CNN)是人工神经网络一个重要的分支或变种,
    • 卷积神经网络具有以下主要 特点
      • 第一个特点称为共享参数, 表示同一个 卷积层的所有神经元拥有相同的权重w 和偏差b, 能 够有效减少网络参数数量, 提高训练效率.
      • 第二个特 点是局部接受域. 图1(a)所示的传统神经网络中, 相 邻两层网络中的神经元是完全连接的. 而在如图1(b) 所示卷积神经网络中, 每一层只有部分神经元与下 一层的一个神经元相连.
      • 第三个特点是引入池化层. 池化层通常施加在卷积层之后. 大池和平均池被 广泛用于简化来自卷积层的输出信息
    • 该网络 被成功运用在机器视觉、语音处理及棋类游戏等领 域
    • 卷积神经网络的神经元激活 
      uploading.4e448015.gif正在上传…重新上传取消
    • 输出层神经元的值与数据 标签之间往往存在一定的误差. 此时需要误差函数。 
      为方便阐述, 本文选择均方差函数作为误差函数C(v): uploading.4e448015.gif正在上传…重新上传取消
      • 梯度:梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。 
        uploading.4e448015.gif正在上传…重新上传取消
      • 形象介绍导数、偏导数、方向导数梯度等一系列概念: 
        https://blog.csdn.net/weixin_40807247/article/details/82755087
    • 通过上述方法调整参数。 
      通过不断调整参数, 网络终可建立起输入数 据到标签的映射函数.

    5. 线弹性有限元的基本原理.

    • 系统总势能 
    • 根据 小势能原理, 真实的位移解使得系统总势能达到最小值: 
    • 得到离散方程组

    5. 卷积神经网络了求解离散方程组

    • 离散方程组可采用高斯消去法等数值方法进行 求解[75]. 从本质上说, 有限元方法求解出一组使系 统总势能达到小的节点自由度.
    • 人工神经网络的 算法则是通过迭代找到一组使得误差函数取极小值 的w和b.
      1. 构造了图2所示的卷积神经网 络结构. 该网络中仅包括一个输入层和一个输出层. 输入层是有限元模型的刚度矩阵K.
      2. 对于确定的有限元模型,刚度矩阵K为常数矩阵,位置的结点位移u作为该网络的权重,
      3. 输出层是K和u依据式(10)运算 得到的节点力f,
      4. 标签则是有限元模型的真实节点力 f 
    • 根据上述原理, 卷积神经网络算法在每次迭代 中求出f与真实节点力 f 的误差C(u). 神经网络算法 根据误差函数的梯度∇ C( u) 迭代更新权重u, 终使 得f与 f 尽可能接近. 

    6. 将卷积神经网络的框架与核心算法应用于 线弹性有限元问题的求解的局限性

    • 该方法将方程的求解转换为优化问 题, 通过梯度下降算法寻找使目标函数满足的优 自由度集合. 该优化过程需要经历较多次迭代, 虽可 通过GPU加速, 其求解效率仍低于主流数值求解方 法.
    • 线弹性有限元方程的刚度矩阵被转换为卷 积神经网络的输入层数据. 卷积神经网络的框架限 制了输入层数据必须为常数矩阵, 这对非线性有限 元方程的求解(可变刚度阵)提出了挑战.

    基于细观页岩扫描照片的模量预测方法

    1. 作者基于卷积神经网络提出一个用于预测非均 质材料等效力学性质的框架.

    • 为了便于阐述, 考虑了 细观尺度的页岩材料, 使用该框架建立起页岩样本 的细观结构与等效模量之间的映射关系.使用扫描 电子显微镜(scanning electron microscope, SEM)获得 页岩的细观结构的图像, 并引入一个简化模型将 SEM图像转换为5相材料样本.
    • 接下来, 使用随机重 建算法基于5相简化样本生成大量随机样本,
    • 基于随机 样本的细观结构和等效模量, 训练了一个多层卷积 神经网络, 建立起细观结构到等效模量的映射关系. 完成训练的网络可被用于预测真实页岩样本的等效 模量. 完整的流程如图4所示. 

    (注:模量是指材料在受力状态下应力与应变之比。模量的倒数称为柔量,用J表示。意义:弹性模量可视为衡量材料产生弹性变形难易程度的指标,其值越大,使材料发生一定弹性变形的应力也越大,即材料刚度越大,亦即在一定应力作用下,发生弹性变形越小。)

    来源: https://baike.baidu.com/item/%E6%A8%A1%E9%87%8F/2500883

    2. 关于页岩(能用机器学习的原因)

     

    • 宏观尺度的 页岩是一种深灰色致密沉积岩.
    • 从细观角度看, 页岩则是包含多种矿物成分的 复杂异质材料, 通常由石英、方解石、蒙脱石、黄铁 矿、黏土和有机物等成分组成[88]. 能量色散X射线光 谱(energy-dispersive X-ray spectroscopy, EDX)、聚焦 离子束研磨(focused ion beam, FIB)和扫描电子显微 镜等方法常被用于识别矿物成分及表征页岩样品的 异质性[89~93].
    • 研究发现, 宏观页岩的变形、破坏等力学性质与 其包含的矿物组分密切相关[94~96]. 因此, 理解其细观 结构与宏观力学性质之间的联系具有重要工程意义.
    • 各矿 物组分的分布形态具有较强的随机性, 造成宏观页 岩样本具有显著的异质性和各向异性.
    • 页岩的变形和破坏等力学性质与其细观矿物组 分的分布方式以及各矿物组分的力学性质有关. 纳 米压入实验常被用于研究页岩细观矿物组分的模量 和硬度等力学性质[
    • 本文使用纳米压入实验测 定了各主要成分的模量。

    (注:也就是说等效模量可以被测出来)

    • 本文基于卷积神经网络建立页岩样本细观结构 和等效模量之间的映射关系.

    3. 各层神经元特点

    • 研究发现, 该网络中的低 层神经元能够捕捉到细节面部特征;
    • 中间层神经元 可以捕捉到较大的局部面部特征;
    • 高层神经元则能 够捕捉到整体面部特征, 即高层的神经元可以提取 更抽象的数据特征

    4. 卷积神经网络应用过程

    • 卷积神经网络的训练需要大量的图像样本, 但是, 真实页岩样本的数量相对有限. 为此, 作者利用随机 建模方法创建了12000个随机样本[102~104]. 使用其中 10000个样本训练网络, 使用剩余2000个样本进行交 叉验证.
    • 训练误差和迭代次数之间的关系如图S8(a)所示. 由于权重和偏差的初始值是随机分配的, 首次迭代 的误差较大. 经过几次迭代后, 训练误差迅速下降.
    • 完成训练后, 该网络被用来预测真实页岩样本 的等效模量. 本文共使用500个真实页岩样本. 该500个真实样 本被输入训练好的网络, 网络输出其对应的等效模 量.

    利用材料实验数据代替经验本构模型

    1. 基于“数据驱动”的计算力学框架的研究现状

    1. 作用:框架提取用于描述微观结构、材料属性和边界条件的样本数据; 通过计算建立其材料响应数据库; 结合机器学习算法构建起样本数据的描述符与关注的材料属性之间的联系. 该框架可以进一步用于设计新的结构或响应模型.
    2. 核心原理:框架的核心是一个由材料响应数据驱动的求解器. 该求解器在大量材料应力-应变实测数据中进行搜索, 在每个单元上迭代寻找一组满足总体优化方程应力-应变组合.
    3. Kirchdoerfer和Ortiz[110~113]从全新的视角提出了基于实验数据的计算力学框架. 该框架不再依赖具有显式表达式的材料本构关系, 而将实验测定的材料响应数据与传统的协调方程和平衡方程等相结合进行求解, 避免了提取经验性材料本构过程中引入的不确定性, 具有很强的原创性和前沿性.
    展开全文
  • 论文研究-企业信息体系研究初探.pdf,
  • 论文研究-故障学初探.pdf, 一、引言 故障,意味着失效和不正常。它是事物运动过程中的一种普遍现象,在特定条件下必然发生。因此,它蕴含着物质世界某种不可抗拒的客观规律。 在日常生活、工作、生产实践、科学实验,...
  • 论文研究-建筑系统工程初探.pdf, 建筑设计是国家建设的一项重要工作,它的成果关系到国家巨额投资的综合效益和广大人民的切身利益。本文通过例举现代建筑工程所面临的迫切问题,引出了建筑工程设计系统观的重要概念和...
  • 论文研究-广义系统论初探.pdf, 人们知道一般系统论、信息论、控制论是系统理论、系统科学的第一批理论成果,它们几乎都是经过20年代到40年代的酝酿,于1948年左右同时诞生的,而且许多基本概念、基本思想、基本方法都...
  • 从六个方面对云计算进行了介绍,首先给出了云计算的定义,并从三个层面介绍了云计算的构成;在此基础上介绍了云计算的不同类型,然后是云计算的主要提供商及其产品,以及有代表性的云计算操作系统;...
  • 论文研究-经济实验室初探.pdf, 从狭义和广义二方面阐述了经济实验室的概念。从广义经济实验室开展了经济实验室的功能、结构、分类、实现策略等多方面内容的研究工作,...
  • 论文研究-金融机制仿真模型初探.pdf, 本文应用SD(system dynamics)方法,将经济改革中形成的新的金融机制模型化。这一尝试的目的在于:为深入研究各类经济活动与金融业的复杂联系开辟一条新的途径,并为预测和确定货币...
  • 论文研究-人才市场动力学模型初探.pdf, 本文根据动力学原理建立了一个宏观的人才市场的变化模型。该模型分析了供(校方)、需(厂方)双方的变化关系,并运用现代控制论中的...
  • 通过对常州刘国军高职学校校园体育文化建设的实践研究,发现校园内有形式多样的体育竞赛活动,参与程度很高。 校园体育文化建设是以体育竞赛为载体,竞赛促进为窗口,推广内涵为核心的高职院校体育文化建设的新模式...
  • 非线性布局方法初探,高文超,,VLSI由于其快速实施和较短的市场周期,在各种电子产品领域急速发展。随着深亚微米技术的发展,VLSI设计中的布局步骤成为其重要的环�
  • 论文研究-IDEF模型设计及其方法论初探.pdf, 通过介绍笔者初步应用 TDEF 构模的一个例子,阐述了应用该法建模的技术,探讨了它的方法论基础。因此,本文对于人们了解和应用 IDEF 也许是有益的。
  • 论文研究-NCO法与ODE法关系初探.pdf, 探讨了神经优化计算方法即NCO法与常微分方程方法(即ODE法)之间的初步联系,给出了求解Rn+上线性及二次约束优化问题时...
  • 论文研究-我国宏观经济的景气分析初探.pdf, 本文用景气分析的方法来研究我国的宏观经济周期波动现象。采用景气动向指数,结合我国的实际情况,在MS.Windows支撑...
  • 论文研究- 分布式人工智能(DAI)初探.pdf, 一、人工智能的发展与分布式人工智能的诞生 人工智能(Artificial Intelligence: AI)是计算机应用的一个广阔的新领域,它研究的中心问题是如何使机器更“聪明”,其目标是使...
  • 论文研究-我国铅笔行业系统规划之初探.pdf, 目前我国铅笔行业面临从卖方市场向买方市场的急剧转变,产品竞争很激烈,品种发展迅速,消费者要求愈来愈高,有的品种出现了产大于销,库存积压;有的品种又受到多种条件限制...
  • 论文研究-鱼雷武器系统作战效能研究方法初探.pdf, 详细分析了鱼雷武器系统作战效能的内容体系 ,给出了相应的 QADC数学模型及研究方法 ,最后讨论了目前存在的技术难题和...
  • 论文研究- 教育层次比的数学模型初探.pdf, 我们认为,人才预测中所得到的学历层次结构比不能简单地照搬到专门人才培养规划中来。建立福建省属普通大中专院校宏观规划中的招生层次结构比的数学模型应依据以下两点; 1...
  • 论文研究-劣势对策与微策略分析初探.pdf, 以劣胜优是未来反侵略战争的重大课题。本文试图运用对策论和决策分析的方法,参照军事指挥的传统经验,探讨在具有一定物质力量的条件下,劣势局中人如何寻找与优化一次对策中...
  • 论文研究-灰色投入产出理论及模型方法初探.pdf, 阐述了一般经济系统外灰要素影响的存在性,提出了包括灰要素影响量在内的灰色投入产出理论与模型。同时探讨了灰要素舍取...
  • 成效导向系统工程原理初探,陈驰,陈立,随着我国社会经济建设水平的不断提高,越来越多的大型工程活动开工建设,系统工程作为一门高度综合性的管理工程技术,却日趋偏向
  • 软件架构中剧场模式初探,王伟,,本文通过对现实世界中剧场组成要素及运行模式的研究,提出一种新的软件架构模式。通过综合运用剧本、舞台、演员等抽象软件组件,
  • 论文研究-系统学二象论初探:一个理论框架 .pdf,
  • 论文研究-智能决策支持系统的人机接口初探.pdf, 人机接口是决策支持系统的一个重要组成部分。随着人工智能研究的不断深入, 智能决策支持系统的概念被提了出来。智能决策...

空空如也

空空如也

1 2 3 4 5 ... 15
收藏数 297
精华内容 118
关键字:

初探论文