精华内容
下载资源
问答
  • 而在优化设计过程中,需要对尺寸进行参数化,下面介绍在优化设计过程中如何实现模型参数化,以Solidworks建模为例。 Solidworks建模 ANSYS有自动识别建模软件参数的功能,识别前缀为DS。因此在建模时,需要将要...

    由于ANSYS中的DesignModeler建模较为不方便,因此大家会在常用的三维建模软件先建立好模型,再导入ANSYSY模块。而在优化设计过程中,需要对尺寸进行参数化,下面介绍在优化设计过程中如何实现模型的参数化,以Solidworks建模为例。

    Solidworks建模
    ANSYS有自动识别建模软件参数的功能,识别前缀为DS。因此在建模时,需要将要参数化的尺寸重新命名,双击该尺寸,在前名称面加前缀DS,如图。在这里插入图片描述
    建立Solidworks与ANSYS链接
    找到CAD configuration Manager,右键以管理员身份打开。
    在这里插入图片描述
    如下图按顺序点击
    在这里插入图片描述
    点击Configure Selected CAD interfaces
    在这里插入图片描述
    建立二者链接成功
    在这里插入图片描述
    ANSYS设置确认

    打开ANSYS,点击TOOL,点击Options.点击Geometry Import观察参数DS是否勾选,未勾选的需要勾选上。
    在这里插入图片描述
    导入模型

    在DM中导入模型,点击Generate,在Details view中观察到已设置好的参数。在这里插入图片描述
    在这里插入图片描述
    其他三维软件参数化过程与Solidworks类似。

    展开全文
  • 参数化设计的意义——Autodriver

    千次阅读 热门讨论 2018-03-15 13:34:50
    关键字:南京东岱 参数化设计 Autodriver什么是参数化?在参数化设计系统中,设计人员根据工程关系和几何关系来指定设计要求。要满足这些设计要求,不仅需要考虑尺寸或工程参数的初值,而且要在每次改变这些设计参数...

    关键字:南京东岱  参数化设计   Autodriver

    什么是参数化?

    在参数化设计系统中,设计人员根据工程关系和几何关系来指定设计要求。要满足这些设计要求,不仅需要考虑尺寸或工程参数的初值,而且要在每次改变这些设计参数时来维护这些基本关系,即将参数分为两类:其一为各种尺寸值,称为可变参数;其二为几何元素间的各种连续几何信息,称为不变参数。参数化设计的本质是在可变参数的作用下,系统能够自动维护所有的不变参数。因此,参数化模型中建立的各种约束关系,正是体现了设计人员的设计意图。
    参数化设计可以大大提高模型的生成和修改的速度,在产品的系列设计、相似设计及专用CAD系统开发方面都具有较大的应用价值。目前,参数化设计中的参数化建模方法主要有变量几何法和基于结构生成历程的方法,前者主要用于平面模型的建立,而后者更适合于三维实体或曲面模型。

    Autodriver背景及操作应用

    我们了解了参数化的意义,就应该明白了,参数化会给我们企业带来哪些好处!Autodriver是南京东岱公司是solidworks软件的代理商,根据众多客户提出的参数化设计要求,在solidworks上二次开发做出来的一款参数化软件,符合绝大多数的solidworks用户。

    Autodriver只要把已经画好的三维模型导入到autodriver里面,通过添加全局变量,然后添加各个尺寸的链接,方程式,让所有的尺寸特征全部关联,这样就可以输入全局变量,来驱动整个模型,变成其他的模型。这样我们就可以快速的完成新的项目图纸,可以直接下发图纸。

    软件就先介绍到这里,下次小编将会录制一个视屏介绍autodriver这个软件。

     

     

    展开全文
  • Creo二次开发:参数化设计

    千次阅读 2016-08-16 14:23:41
    以创建一个矿泉水瓶组件为例,实现参数化设计,包括瓶身和瓶盖两部分,其中参数和关系在Creo中已经定义好了。代码如下: //自定义函数 ProError action(ProParameter *parm, ProError status, ProAppData appdata)...

    以创建一个矿泉水瓶组件为例,实现参数化设计,包括瓶身和瓶盖两部分,其中参数和关系在Creo中已经定义好了。代码如下:

    //自定义函数
    ProError action(ProParameter *parm, ProError status, ProAppData appdata)
    {
        vector<ProParameter>* pf = (vector<ProParameter>*)appdata;
        pf->push_back(*parm);

        return PRO_TK_NO_ERROR;
    }

    //按钮:打开瓶子装配模型
    void CPart3DDlg::OnBnClickedBtnOpenPart0001()
    {
        // TODO: 在此添加控件通知处理程序代码
        ProErr status;
        ProMdl mdl;
        ProFamilyName name;
        //转换成宽字符
        ProStringToWstring(name,"D:\\demo\\bottle_asm.asm");
        //从磁盘中读取模型
        status = ProMdlRetrieve(name,PRO_MDL_ASSEMBLY,&mdl);
        if (status!=PRO_TK_NO_ERROR)
        {
            return;
        }
        //显示模型
        ProMdlDisplay(mdl);

        ProParamvalue proval;
        ProModelitem item;
        status=ProMdlToModelitem(mdl,&item);

        vector<ProParameter> dims;
        status=ProParameterVisit(&item,NULL,(ProParameterAction)action,&dims);
        if (status!=PRO_TK_NO_ERROR)
        {
            return;
        }
        for (unsigned int i=0;i<dims.size();i++)
        {
            status=ProParameterValueGet(&dims[i],&proval);
            if (status!=PRO_TK_NO_ERROR)
            {
                return;
            }
            CString dimension,dimensionName;
            dimensionName.Format(_T("%ws"),dims[i].id);
            switch (proval.type)
            {
            case PRO_PARAM_DOUBLE:
                dimension.Format(_T("%f"),proval.value.d_val);
                break;
            case PRO_PARAM_INTEGER:
                dimension.Format(_T("%d"),proval.value.i_val);
            default:
                break;
            }
            m_Part0001DataList.InsertItem(0,dimensionName);
            m_Part0001DataList.SetItemText(0,1,dimension);
        }

        //激活当前窗口
        int windId;
        ProWindowCurrentGet(&windId);
        ProWindowActivate(windId);
    }

    //自定义函数:设置参数值
    ProError UserSetParamValue(ProModelitem owner, char* name, double value)
    {
        ProError status;
        ProParameter param;
        ProName param_name;
        ProStringToWstring(param_name, name);
        status = ProParameterInit(&owner, param_name, &param);
        if(status != 0)
        {
            return status;
        }

        ProParamvalue proval;
        proval.type = PRO_PARAM_DOUBLE;
        proval.value.d_val = value;

        status = ProParameterValueSet(&param, &proval);
        if(status != 0)
        {
            return status;
        }

        return PRO_TK_NO_ERROR;
    }

    //按钮:重生装配模型
    void CPart3DDlg::OnBnClickedBtnRegenerate()
    {
        // TODO: 在此添加控件通知处理程序代码
        UpdateData(true);

        ProError status;
        ProMdl p_handle;
        ProModelitem p_modelitem;

        //获取当前模型
        status=ProMdlCurrentGet(&p_handle);
        if (status!=PRO_TK_NO_ERROR)
        {
            return;
        }
        //获得用户编辑框中输入的尺寸值
        status = ProMdlToModelitem(p_handle, &p_modelitem);
        UserSetParamValue(p_modelitem, "DIA_UP", m_dDia1);
        UserSetParamValue(p_modelitem, "DIA_DOWN", m_dDia2);
        UserSetParamValue(p_modelitem, "HEIGHT", m_dHeight);
        UserSetParamValue(p_modelitem, "CAP_DEPTH", m_dCapDepth);

        if (m_dCapDepth<=m_dHeight)
        {
            //重生模型
            status=ProSolidRegenerate((ProSolid)p_handle, PRO_REGEN_NO_FLAGS);
        }
        else{
            AfxMessageBox(_T("瓶盖深度应该小于瓶口高度!请重新输入!"));
        }
        //显示
        status = ProMdlDisplay(p_handle);
        //刷新列表框中的数据
        CString m_strDia1,m_strDia2,m_strHeight,m_strCapDepth;
        m_strDia1.Format(_T("%f"),m_dDia1);
        m_strDia2.Format(_T("%f"),m_dDia2);
        m_strHeight.Format(_T("%f"),m_dHeight);
        m_strCapDepth.Format(_T("%f"),m_dCapDepth);

        m_Part0001DataList.SetItemText(0,1,m_strDia1);
        m_Part0001DataList.SetItemText(1,1,m_strDia2);
        m_Part0001DataList.SetItemText(2,1,m_strHeight);
        m_Part0001DataList.SetItemText(3,1,m_strCapDepth);
        //激活当前窗口
        int window;
        ProMdlWindowGet(p_handle, &window);
        ProWindowActivate(window);

        UpdateData(FALSE);
    }


    展开全文
  • 清华大学丁霄汉做“深度网络重参数化——让你的模型更快更强”主题报告分享 丁霄汉,清华大学在读博士生,研究领域为卷积神经网络基本模型,包括重参数化、压缩、加速、架构设计、组件设计等。在CVPR、ICML、ICCV、...

    不到现场,照样看最干货的学术报告!

    嗨,大家好。这里是学术报告专栏,读芯术小编不定期挑选并亲自跑会,为大家奉献科技领域最优秀的学术报告,为同学们记录报告干货,并想方设法搞到一手的PPT和现场视频——足够干货,足够新鲜!话不多说,快快看过来,希望这些优秀的青年学者、专家杰青的学术报告 ,能让您在业余时间的知识阅读更有价值。


    人工智能论坛如今浩如烟海,有硬货、有干货的讲座却百里挑一。“AI未来说·青年学术论坛”系列讲座由中国科学院大学主办,百度全力支持,读芯术、paperweekly作为合作自媒体。承办单位为中国科学院大学学生会,协办单位为中国科学院计算所研究生会、网络中心研究生会、人工智能学院学生会、化学工程学院学生会、公共政策与管理学院学生会、微电子学院学生会。2020年7月26日,第17期“AI未来说·青年学术论坛”百度奖学金特别专场论坛以“线上平台直播+微信社群图文直播”形式举行。清华大学丁霄汉带来报告《深度网络重参数化——让你的模型更快更强》。

    清华大学丁霄汉做“深度网络重参数化——让你的模型更快更强”主题报告分享

    丁霄汉,清华大学在读博士生,研究领域为卷积神经网络基本模型,包括重参数化、压缩、加速、架构设计、组件设计等。在CVPR、ICML、ICCV、NeurIPS等会议作为第一作者发表论文5篇。曾获得百度奖学金、国家奖学金等荣誉。

    深度网络重参数化——让你的模型更快更强

    丁霄汉本次的报告分为五个部分:1.什么是重参数化;2.重参数化的应用——增强模型性能;3.重参数化的应用——模型裁剪;4.重参数化的应用——NAS;5.关于结构与参数的思考。

    首先,丁肖汉介绍了重参数化的概念。

    部署时的模型需要一些参数来完成推理,以卷积网络为例,假设一个卷积层它有D个输出的channel,C个输入的channel,然后它的 kernel size是K×K,它就至少需要D×C×K×K的参数完成他的推理。这一层的参数就是一个D×C×K×K的4阶的张量。那么常规的方法是使用训练出来的D×C×K×K,这似乎是一个理所当然的事情。

    这是一个理所当然的事情吗?这就引出了重参数化的概念,重参数化方法就是训练的时候使用另一套不同于这D×C×K×K的参数,在训练完成以后,将它等价转化为D×C×K×K用于推理。重参数化有两方面意义:一方面可以提高模型的性能,另一方面是改变模型的结构来达到某些目的。重参数化的关键是:1.想出一套重参数化的形式即如何设计一套形式,让它不同于 D×C×K×K;2.找到对应的等价转换的方式;3.如何利用这种形式来达成某些目的。

    其次,丁霄汉通过介绍去年发表在ICCV上的一篇文章来介绍重参数化的第一个应用——增强模型性能。

    这篇文章的主要内容是用非对称卷积模块来提高CNN的性能。如果一句话总结的话,3×3卷积 +  1×3卷积 +  3×1卷积能够在部署模型完全相同的情况下,只需要多训练一会就能得到性能提升。这篇文章的反响比较好,在知乎上大概有1000多个赞,在 GitHub也有大概500多个星。

    回到报告的主题,这篇文章它用的重参数化的形式是什么呢?重参数化的形式就是将一个普通的卷积D×C×K×K,将其并行分解成三个分支:D×C×K×K,D×C×1×K,D×C×K×1。

    等价转换方式是将K×1和1×K的这两个分支的参数直接加到 K×K的对应的位置上面去。由于卷积的线性,也就是可加性所以它的结果是相同的。从上图看到,为什么把batch norm中间加上batch norm之后还是可以等价转换,是因为卷积具有齐次性,保证了卷积后面的batch norm可以给“吸”到卷积中去,这样它最后的结果还是不变的。

    有些人对这种重参数化提出了一些疑问,比如,两个卷积核的形状是相同的,把它加起来没问题,但是不是相同形状,例如K×K,K×1,1×k这样的卷积核可以直接相加吗?答案是可以的。丁霄汉用滑动窗口的方法来解释了这个问题,以滑动窗口的视角来看,这个变化是等价的,如下图所示。

    这个方法目前也有很多人都使用过它了,比如说最近有一个工作室把它扩展成了一个名为eacb,然后用在一些竞赛里面并且得到比较不错的成绩;再比如在IJCAI2020上的比赛的第一名也是用这个方法;另外它也用到了一些商业产品里面。

    再次,丁霄汉讲了重参数化的另外一个应用——改变模型结构(模型裁剪)。

    它主要应用在剪枝上,这里说的剪枝是把卷积层的输出通道变小,也就是把层变窄。比如说VGG的第一层是64,第二层64,第三层是128,剪枝之后可能第一层第二层小于64,第三层小于128,这就叫channel pruning。这个应用的难点在于CNN的最终的精度是和它的宽度是密切相关的,那如何能把宽度减小,还能保证性能不降低,这是问题的关键。

    给定一个训练的好的模型,做channel pruning通常的做法有两种。一种是根据某些标准选择某些channel,然后直接将其去掉,然后再调整网络的结构,调整之后,网络的精度很显然是会明显降低的。然后再去训练,它的精度再训练回来一点。另外一种是加入某种约束,在网络上加入某种约束,然后训练使得某些channel接近于0,接近0之后并将其剪枝,这样造成的精度损失就小得多了,之后再去训练就可以了。

    如下图所示。比如说第一层的输入是两个channel,然后第一层有4个filter,它产生4个channel,然后如果把其中第三个filter去掉的话,那它就只输出3个channel了;原本第二层的输入有4个channel,如果把它前一层的四个channel的变成三个channel,则第二层的每个filter的第三个输入层的也要去掉,这样的话它的计算量就大大的减小了,因为只减第一层,它第一层也减小了,第一层的运算量也减小了,第二层运算量也减小了。所以 channel pruning是可以有效的减小模型的计算量。

    下面丁霄汉介绍了他最近发表的一篇文章“(preprint) LosslessCNN Channel Pruning via Gradient Resetting and ConvolutionalRe-parameterization”。 如下图所示,他具体讲述了关于这篇文章中提到的重参数化的形式以及给定一个训练好的模型,怎样用于剪枝这两方面。

    从下图看,文章中提到的方法的效果现在来看是非常好的,它在ResNet-50上可以达到一个相当高的压缩比,比其他方面都要好得多,可以把在我们度量这Channel pruning的方法。一般是通过看他减少了原模型的多少FLOPs来看的。在这里我们看到这个方法减小了超过50%的FLOPs,然后没有完全没有造成精度损失。目前肯定是这个领域内效果最好的一个方法了。

    丁霄汉简单介绍了前面提到的“某种训练方法”(GradientResetting)。传统的方法是通过添加某种约束,比如说在loss上加一个项,比如L1或者Lasso来使某些channel变成0。这样它有一个很大的问题,如果约束很弱的话,大多数channel它只是变小一点而已,它并不能足够的接近零,这样的话剪枝依然会掉点。如果约束很强的话,这个模型的性能就会掉的很多,因为这个模型的优化的极值点,因为添加的约束而变化了,所以它的性能会掉得很多,有可能在还没到剪枝的时候,这个模型就已经崩掉了。

    下图中的方法在弱约束下不能接近0,这是因为目标函数导出的梯度和罚项导出的梯度相拮抗,达到平衡便不再减小。这里也有一个非常暴力的解决方案:选择一些channel,把第一项梯度丢掉。但梯度中带着跟目标函数有关的信息,丢掉会导致性能损失。

    那么重参数化在这里结合的关键是在哪?为什么重参数化结合这种思想它就有work呢?关键在于只对那些我们引入的这些1×1卷积层这样做,丢掉的一些梯度,是这些1×1卷积的梯度。不是原本这些kernel的梯度,它本来就不存在,只是额外引入的这么一些参数,所以这个模型并没有因为这些暴力操作得到什么关键的信息。换句话说,剪枝的过程并没有给他带来本质的副作用,如果模型性能降低了,那就真的只是因为宽度减小了,就是这个本质的原因。

    如上图所示,传统的方法假设输入通道是4个,在经过batch norm,卷积层的参数是有许多参数,然后除了模型原本的之外,在上面加一个罚项,然后通过罚项Loss修正的来的梯度就会使它减小,然后把梯度用来进行SGD的话,最后得到的参数里面就有很多行,很多行比较接近0,但是不一定非常接近0。然后再剪枝的话它可能会掉点。对比来看丁霄汉的方法,原本的层都不变,但是在后面加入一个1×1卷积,这1×1卷积则我们在这里所谓的 compactor,loss不变,然后对loss求完导之后得到它们的梯度。然后通过compactor params得出来一个mask,然后把compactor的梯度中的某一部分变成0,然后在上面再加一下惩罚项的梯度,最后经过很多的SGD迭代之后,得到的结果还是不变的。 这里并没有对原来的参数做什么变化,做什么粗暴的操作,只是对 compactor做个操作,然后因为它的一些行都非常接近0,所以对它做剪枝不会有什么变化,不会对这个模型性能产生损失。

    紧接着,丁霄汉讲述了重参数化最后一个应用——NAS。

    NAS是用meta-kernel来构建kernel,将meta-kernel的形状放入搜索空间一起搜。

    最后,丁霄汉提出了关于结构与参数的几点思考。

    第一,区分“结构”和“参数”。我需要一个模型,然后需要一些参数,然后在训练的时候也训练需要的那么多参数,这个事情是理所当然的吗?其实不一定。思考这个问题时,是要区分结构和参数的。当不区分的时候,思维方式是这样的,我需要一个模型,在这里说到模型的时候,心里其实想的也是参数和结构,但是我们不会把它区分开,需要一个模型,所以我训了一个模型,训好的模型不够强,所以我不满意。但是如果你把结构和参数区分开的话,是这样想的,我需要用到这样的模型的结构,他要载入这么多的参数,然后为了得到一套强有力的参数,我要怎么做?一种做法是构建原来的结构,训练一套参数,训练上来的参数就是我用的参数,然后这套参数不够强烈,我不满意,或者用重参数化的方法来思考,就是我构建一个不一样的结构,然后训出另外一套参数,然后把这些参数给变成我最终需要的参数。

    第二,为什么我们认为“训什么就用什么”的想法是理所当然的呢?因为参数转换不等价,转换过去之后有一点误差的话,深度网络对误差极其敏感,这个模型可能直接就崩掉,就导致转换后的参数根本就不能用。另外,如果一定要等价转换的话,参数的等价转换一般依赖于它的线性,若干个操作之间如果有非线性的话就难以转换,而更为致命的是连续线性操作被认为它等价于单一性的操作,这个很容易理解,因为同样的输入先乘矩阵A再乘矩阵B,它就等于乘以矩阵A乘以矩阵B,但连续线性操作它不一定等价于单一线性操作。

    第三,重参数化work的本质是什么?一是深度模型它训练动力学特征的复杂性,就是前向传播的时候它等价,不意味着你反向传播更新梯度的时候也等价。这一点在丁霄汉去年的一篇paper里面也提到了这一点,深度网络是复杂的,深度网络的动力学是复杂的,不能简单的去理解它。二是关于参数量的基本原则。就是为什么他们重算的话加了那么多参数,它就work了,就是一个关于操作量基本原则,简单的讲多就是好,大就是猛,大力出奇迹,越多越work,这是一个简单的原则。三是对关于通过重参数化引入的那些部分的思考。通过重参数化引入的那些额外的输入,各种花式操作留出了空间。

    丁霄汉欢迎大家关注他的后续研究,在未来两个月内他会放出一些更多有意思的东西。

    AI未来说*青年学术论坛

    第一期 数据挖掘专场

    1. 李国杰院士:理性认识人工智能的“头雁”作用

    2. 百度熊辉教授:大数据智能化人才管理

    3. 清华唐杰教授:网络表示学习理论及应用

    4. 瑞莱智慧刘强博士:深度学习时代的个性化推荐

    5. 清华柴成亮博士:基于人机协作的数据管理

    第二期 自然语言处理专场

    1. 中科院张家俊:面向自然语言生成的同步双向推断模型

    2. 北邮李蕾:关于自动文本摘要的分析与讨论

    3. 百度孙珂:对话技术的产业化应用与问题探讨

    4. 阿里谭继伟:基于序列到序列模型的文本摘要及淘宝的实践

    5. 哈工大刘一佳:通过句法分析看上下文相关词向量

    第三期 计算机视觉专场

    1. 北大彭宇新:跨媒体智能分析与应用

    2. 清华鲁继文:深度强化学习与视觉内容理解

    3. 百度李颖超:百度增强现实技术及应⽤

    4. 中科院张士峰:基于深度学习的通用物体检测算法对比探索

    5. 港中文李弘扬 :物体检测最新进展

    第四期 语音技术专场

    1. 中科院陶建华:语音技术现状与未来

    2. 清华大学吴及:音频信号的深度学习处理方法

    3. 小米王育军:小爱背后的小米语音技术

    4. 百度康永国:AI 时代的百度语音技术

    5. 中科院刘斌:基于联合对抗增强训练的鲁棒性端到端语音识别

    第五期 量子计算专场

    1. 清华大学翟荟:Discovering Quantum Mechanics with Machine Learning

    2. 南方科技大学鲁大为:量子计算与人工智能的碰撞

    3. 荷兰国家数学和计算机科学中心(CWI)李绎楠:大数据时代下的量子计算

    4. 苏黎世联邦理工学院(ETH)杨宇翔:量子精密测量

    5. 百度段润尧:量子架构——机遇与挑战

    第六期 机器学习专场

    1. 中科院张文生:健康医疗大数据时代的认知计算

    2. 中科院庄福振:基于知识共享的机器学习算法研究及应用

    3. 百度胡晓光:飞桨(PaddlePaddle)核心技术与应用实践

    4. 清华大学王奕森:Adversarial Machine Learning: Attack and Defence

    5. 南京大学赵申宜:SCOPE - Scalable Composite Optimization for Learning

    第七期 自动驾驶专场

    1. 北京大学查红彬:基于数据流处理的SLAM技术

    2. 清华大学邓志东:自动驾驶的“感”与“知” - 挑战与机遇

    3. 百度朱帆:开放时代的自动驾驶 - 百度Apollo计划

    4. 北理宋文杰:时空域下智能车辆未知区域自主导航技术

    第八期 深度学习专场

    1. 中科院文新:深度学习入门基础与学习资源

    2. 中科院陈智能:计算机视觉经典——深度学习与目标检测

    3. 中科院付鹏:深度学习与机器阅读

    第九期 个性化内容推荐专场

    1. 人民大学赵鑫:基于知识与推理的序列化推荐技术研究

    2. 中科院赵军:知识图谱关键技术及其在推荐系统中的应用

    第十期 视频理解与推荐专场

    1. 北京大学袁晓如:智能数据可视分析

    第十一期 信息检索与知识图谱专场

    1. 北京邮电大学邵蓥侠:知识图谱高效嵌入方法

    2. 人民大学徐君:智能搜索中的排序-突破概率排序准则

    3. 百度周景博:POI知识图谱的构建及应用

    4. 百度宋勋超:百度大规模知识图谱构建及智能应用

    5. 百度冯知凡:基于知识图谱的多模认知技术及智能应用

    第十二期 年度特别专场

    1. 复旦大学桂韬:当NLP邂逅Social Media--构建计算机与网络语言的桥梁

    2. 清华大学董胤蓬:Adversarial Robustness of Deep Learning

    3. UIUC罗宇男:AI-assisted Scientific Discovery

    4. 斯坦福应智韬:Graph Neural Network Applications

    第十三期 AI助力疫情攻关线上专场

    1. 清华大学吴及:信息技术助力新冠防控

    2. 北京大学王亚沙:新冠肺炎传播预测模型

    3. 百度黄际洲:时空大数据与AI助力抗击疫情——百度地图的实践与思考

    4. 百度张传明:疫情下的“活”导航是如何炼成的

    第十四期 深度学习线上专场

    1. 中国科学院徐俊刚:自动深度学习解读

    2. 北航孙钰:昆虫目标检测技术

    3. 百度尤晓赫:EasyDL,加速企业AI转型

    4. 百度邓凯鹏:飞桨视觉技术解析与应用

    第十五期 大数据线上专场

    1. 复旦赵卫东:大数据的系统观

    2. 中科大徐童:AI×Talent数据驱动的智能人才计算

    3. 百度李伟彬:基于PGL的图神经网络基线系统

    4. 中科大张乐:基于人才流动表征的企业竞争力分析

    第十六期 NLP前沿技术及产业化线上专场

    1. 复旦大学黄萱菁:自然语言处理中的表示学习

    2. 中科院刘康:低资源环境下的事件知识抽取

    3. 百度何中军:机器翻译 —— 从设想到大规模应用

    4. 百度孙宇:百度语义理解技术ERNIE及其应用

    5. 哈佛邓云天:Cascaded Text Generation with Markov Transformers

    6. 复旦大学桂韬:Uncertainty—Aware Sequence Labeling


    推荐阅读专题


    留言 点赞 发个朋友圈

    我们一起分享AI学习与发展的干货

    推荐文章阅读

    ACL2018论文集50篇解读

    EMNLP2017论文集28篇论文解读

    2018年AI三大顶会中国学术成果全链接

    ACL2017 论文集:34篇解读干货全在这里

    10篇AAAI2017经典论文回顾

    长按识别二维码可添加关注

    读芯君爱你

    展开全文
  • 基于LSTM的股票预测模型_python实现_超详细

    万次阅读 多人点赞 2019-07-05 22:25:13
    文章目录一、背景二、主要技术介绍1、RNN模型2、LSTM模型3、控制门工作原理四、代码实现五、案例分析六、参数设置七、结论 一、背景 近年来,股票预测还处于一个很热门的阶段,因为股票市场的波动十分巨大,随时...
  • 4、参数化建模 ​ 注:印记面的创建 5、模型属性设置 注:设置优化目标 6、回主界面,选择direct optimization模块 1、打开软件workbench 2、找到static structure,双击打开 3、选择材料 4、参数化建模 ...
  • Autodesk Inventor参数化建模简明教程

    千次阅读 2020-12-07 15:36:59
    之前一直是使用proe做的参数化建模,但是画图又爱用inventor画,没办法,proe出的图简直不要太丑。 所以抽空简单研究了一下inventor的参数化建模,写博做个笔记~ 相比于proe的“参数”、“关系”两相独立,...
  • 下面我就对如何进行参数化建模并导入到ansys workbench中进行优化分析进行步骤说明。 一:ansys workbench与UG无缝连接。 开始→ANSYS19.1→CAD Configuration Manager 19.1(此处应该点击以管理员身份
  • 前文写了solidworks的参数化建模及workbench的导入这篇主要针对所建模型,做分析及后处理 1 在analysis systems里面,双击static structural,拖拽A2到B3 2 进入model,添加约束和载荷,对左边圆孔添加约束:...
  • SolidWorks参数化设计中Excel的应用

    万次阅读 热门讨论 2017-07-16 10:05:24
    摘要:运用SolidWorks自带的系列零件设计表功能,可以自行设计SolidWorks参数化设计系统,系统主要利用Excel的强大功能,进行二次开发系统界面,达到企业的设计流程及设计规范。 关键词:SolidWorks,设计表,Excel...
  • 设置Solidworks为Ansys Workbench进行参数化设计作准备

    万次阅读 热门讨论 2016-11-24 11:56:56
    这是个很好的方法,Ansys当然不可能不做这个功能,然后就搜索了一下如何实现在Solidworks中进行参数化建模,并在导入Ansys中后能识别出来吧。 Solidworks中建模,出现尺寸参数的地方无非有两个地方:一个是草图中的...
  • 从零开始学习机器学习视频教程

    万人学习 2017-12-04 22:38:30
    本门课程将系统入门机器学习,课程内容不光是对算法的学习,还包括诸如算法的评价,方法的选择,模型的优化,参数的调整,数据的整理,等等一系列工作。让大家对机器学习算法有个全面的了解,并应用到你的实际项目中...
  • 1.前言 我的毕设做的是基于opencv和卷积神经网络的人脸识别项目。...2.卷积神经网络模型概览 ** 从一开始的LeNet到后来的VGGNet,再到google的Inception系列,再到ResNet系列,每一种神经网络模型都有其创新...
  • 关于solidworks+workbench的参数化建模分析的一点心得1

    千次阅读 热门讨论 2019-12-02 14:56:33
    刚刚接触solidworks的参数化建模,根据workbench操作手册14.0上面的结构优化-响应曲面,做了参数化建模 ,并利用workbench做后处理
  • SOLIDWORKS——参数化建模

    千次阅读 2020-06-02 13:57:46
    知识点:投影曲线、曲面填充、扫描、外观设置 建模步骤 1.先在工具——方程式里输入一个直径的变量A=120 。...4.上视基准面上草绘图形,转换实体引用最外侧圆,转为构造线,隐藏球。...5.显示球体,投影曲线,.
  • PROE链轮库参数化

    2010-04-23 20:04:28
    PROE链轮库参数化,可以改参数来达到自己想要的链轮
  • 天线基础与HFSS天线设计流程

    万次阅读 多人点赞 2019-04-28 15:10:10
    1.2 天线的性能参数 1. 方向图 2. 辐射强度 3.方向性系数 4. 效率 5. 增益 6. 输入阻抗 7. 天线的极 HFSS天线设计流程 2.1 HFSS天线设计流程概述 1.设置求解类型 2.创建天线的结构模型 3.设置边界...
  • 在神经网络中,通常需要随机初始化模型参数。下面解释一下这样做的原因。 设有一个多层感知机模型,假设输出层只保留一个输出单元o1o_1o1​,且隐藏层使用相同的激活函数。如果将每个隐藏单元的参数都初始化为相等的...
  • 神经网络模型简述 实例:交通运输能力预测设计 MATLAB程序及仿真结果 由于货物运输、地方经济及企业发展的紧密联系,因此作为反映货物运输需求的一项重要指标, 货运量预测研究和分析具有较强的实际意义。 常用的...
  • 基于模型预测控制(MPC)的车道保持控制实现方法

    万次阅读 多人点赞 2019-04-10 19:05:44
    MATLAB 2018b中有一个关于车道保持的案例,本次设计模型控制算法部分与案例相同,但是车辆对象采用Carsim中的车辆模型。整个基于模型预测控制的车道保持系统simulink仿真框架如下所示 图 1 在实际的车辆保持...
  • solidworks用于ANSYS的参数化建模

    万次阅读 2018-12-13 21:41:18
    这是个很好的方法,Ansys当然不可能不做这个功能,然后就搜索了一下如何实现在Solidworks中进行参数化建模,并在导入Ansys中后能识别出来吧。 Solidworks中建模,出现尺寸参数的地方无非有两个地方:一个是草图中的...
  • 本文根据b站鲁老师的教学视频整理而来,可能会偏理论,有点枯燥,但是如果认真看完,还是会有所收获哒。 从本文可以学习到: 对于一个即将展开的项目,我们应该怎么设计及实现数据库。 掌握概念模型(ER模型和UML...
  • 三、实战篇: 通过4个实战全面掌握深度学习理论与实现,涵盖目标检测、图像分类、可视和可解释性学习、迁移学习、特征提取、数据增强等。带你综合运用前面所学的所有知识,逐渐熟练AI开发流程与技能。 课程包含...
  • REVIT参数化有什么意义

    千次阅读 2018-03-06 14:31:03
    也是REVIT参数化没有什么实际意义呢。有一次面试,面试官让我谈谈自己眼中的BIM是什么样子,我告诉他说一句话总结就是:BIM就是虚拟现实。BIM是虚拟现实,BIM就是模拟技术,对于孤立的建筑来说,BIM通过三维设计将...
  • 数字化制造系统参数化建模及仿真

    千次阅读 2020-07-19 20:53:33
    文章目录数字化制造系统参数化建模及仿真引言1 面向对象的着色Petri网建模1.1系统对象建模1.2系统对象子网建模1.3系统对象...参数化3仿真实例3.1实例模型3.2多因子多水平实验3.3基于综合满意度的数值优化4结论参考文献...
  • 一、引言 本文以rssi(接收信号强度)滤波为背景,结合卡尔曼的五个公式,设计 rssi 一维卡尔曼滤波器,用MATLAB...4、公式中每个参数详细注释 5、结合rssi滤波实例设计滤波器 6、MATLAB实现滤波器 二、模型的...
  • 蚂蚁管网参数化三维建模方案

    千次阅读 2020-06-29 00:18:46
    蚂蚁管网参数化建模工具是 iXModelBuilder 产品集中的一个直接面向城市管网用户的参数化建模工具类软件,它专注于城市管网参数化三维建模与数据交换,通过二维矢量数据以及必要的属性数据驱动生成三维模型,为用户...
  • 也可以划分为三个互斥的集合,此时就增加一个验证集,用于调试参数和选择模型 。 直接采用 sklearn 库的 train_test_split 函数即可实现,一个简单的示例代码如下,这里简单调用 knn 算法,采用 Iris 数据...
  • 1.参数化方法  参数化设计(Parametric)设计(也叫尺寸驱动Dimension-...利用参数化设计手段开发的专用产品设计系统,可使设计人员从大量繁重而琐碎的绘图工作中解脱出来,可以大大提高设计速度,并减少信息的存

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 398,725
精华内容 159,490
关键字:

参数化模型设计