精华内容
下载资源
问答
  • SmartDraw 保证正版 内含序列号

    热门讨论 2010-09-17 16:21:08
    随带的图库里包含数万个示例、数万个符号形状供你直接套用(当然,你还可以去该公司的网站下载更多的符号和外形。总量达数百兆之巨,充分满足你制作各类图表的需要。)。其独特之连结器具有随机移动功能,不易断线...
  • 注:float double 小数部分不可能精确,只能近似。 比较小数时,用 double i=0.01; if ( i - 0.01 ) ... 不能直接 if (i==0.01)... 默认,整数是int类型,小数是double类型 long类型值,需跟L或l在数据后;...
  • 很好UML学习资料.pdf

    2013-06-09 23:22:39
    细节设计,也包含对系统总体设计。一个好模型包括重要 因素,而忽略不相干细节。每一个系统可以从不同方面使用不 同模型进行描述,因此每个模型都是对系统从语义上近似抽象。 模型可以是结构、...
  • 还是从最基础来看吧,简单...Unicode是国际组织制定可以容纳世界上所有文字和符号的字符编码方案。能够使计算机实现跨语言、跨平台文本转换及处理。 void* 指针 可用存放任意对象地址 作用:拿它与...

    还是从最基础的来看吧,简单的大概看一下吧。

    char是8位类型,最多只能包含256种字符,许多外文字符集所含的字符数目超过256个,char型无法表示。如中文字符,就可用 wchar_t来表示

    Unicode是国际组织制定的可以容纳世界上所有文字和符号的字符编码方案。能够使计算机实现跨语言、跨平台的文本转换及处理。

     

     

    void* 指针

    可用于存放任意对象的地址

    作用:拿它与其他类型的指针比较、作为函数的输入或输出、赋给另一个void*指针

    不能直接操作void*指向的对象

     

    指向指针的引用

    引用本身不是一个对象,因此不能定义指向引用的指针,但是指针是对象,存在对指针的引用

    r到底是什么?

    最简单的方法是从右向左阅读r的定义。离变量最近的符号对变量的类型个有最直接的影响。

    所以,在此例中,r是一个引用。r引用的是一个int指针。

     

    const与指针中,用名词顶层const 表示指针本身是个常量,而用底层const表示指针所指的对象是一个常量。

    constexpr和常量表达式

    常量表达式——值不会改变并且在编译过程中就能得到计算结果的表达式。用常量表达式初始化的const对象也是常量表达式。

    constexpr变量

    允许将变量声明为constexpr类型以便由编译器来验证变量的值是否是一个常量表达式。声明为constexpr的变量一定是一个常量,而且必须用常量表达式初始化:

    Tips:一般来说,如果你认定变量是一个常量表达式,那就把它声明成constexpr类型。

    字面值类型

    常量表达式的值需要在编译时就得到计算,因此对声明constexpr时用到的类型必须有所限制。

    这些类型称为“字面值类型”。

    算数类型、引用和指针 属于字面值类型。

    自定义类、IO库、string类型则不属于字面值类型。也就不能定义成constexpr。

    PS:一个constexpr指针的初始值必须是nullptr或者0,或者是存储于某个固定地址中的对象。

    一般来说,定义于所有函数体之外的对象其地址固定不变,允许函数定义一类有效范围超过函数本身的变量,这类变量和定义在函数之外的变量一样也有固定地址。因此,constexpr引用能绑定到这样的变量上,constexpr指针也能指向这样的变量。

    constexpr指针中,限定符constexpr仅对指针有效,与指针所指的对象无关。

    constexpr把它所定义的对象置为了顶层指针

     

    指针、常量和类型别名

    不能简单的将类型别名替换成它本来的样子,以理解该语句的含义:

    如  const char *cstr = 0;       //理解错误!!!

    用到pstring时,其基本数据类型是阵阵,声明了一个指向char的常量指针

    改写后,数据类型变成了char,*成了声明符的一部分,声明了一个指向const char 的指针。

     

    auto声明 让编译器判断数据类型,一般会忽略掉顶层const,同时底层const则会保留下来

    设置一个类型为auto的引用时,初始值中的顶层常量仍然保留。和往常一样,如果我们给初始值绑定一个引用,则此时的常量就不是顶层常量了。

     

    PS:要在一条语句中定义多个变量,切记!符号*和&只从属于某个声明符,而非基本数据类型的一部分,因此初始值必须是同一类型。

    decltype类型指示符

    选择并返回操作数的数据类型

    declttype(f()) sum = f()                     //sum的类型就是表达式f()的类型
    const int ci = 0, &cj = ci;
    decltype(ci) x = 0;
    decltype(cj) y = x;        //y的类型是const int&, y 绑定到变量x
    decltype(cj) z;              //错误:z是一个引用,必须初始化

    decltype和引用

    //decltype的结果可以是引用类型
    int i = 42, *p = &i, &r = i;
    decltype(r + 0) b;           //正确:加法的结果是int,因此b是一个(未初始化的)int
    decltype(*p)  c;              //错误:c是int&,必须初始化

    解引用指针可以得到指针所指的对象,而且还能给这个对象赋值。因此,decltype(*p)的结果类型就是int&,而非int

    使用decltype时,如果变量名加上了一对括号,则得到的类型与不加括号时会有不同。不加括号,得到的结果是该变量的类型,如果给变量加上了一层或多层括号,编译器就会把它当成一个表达式。变量是一种可以作为赋值语句左值得特殊表达式,所以这样的decltype就会得到引用类型:

    decltype((i)) d;         //错误:d是int&,必须初始化 
    decltype(i) e;            //正确:e是一个(未初始化de)int

     

    转载于:https://www.cnblogs.com/farewell-farewell/p/5653674.html

    展开全文
  • 物品包(item)了所有可消耗不可消耗物品,比如武器防具(WEAPON)、药物(MEDIC),也包含所有资源(RESOURCE),以及特殊道具(SPECIAL)。凡是玩家可以取得事物都算作物品对象。 建筑物...
  • Rough集方法可以解决重要分类问题,所有冗余对象属性约简包属性最小子集,能够很好地近似分类,得到可以接受质量分类。而且,它还可以用决策规则集合形式表示最重要属性特定分类之间所有重要关系...
  • 本实验依托教材《模式分类》第二版第六章(公式符号与书中一致)实验内容:设计编写BP神经网络RBF神经网络,对给定数据集进行分类测试,并将分类准确率与SVM进行对比。实验环境:matlab2016a数据集:数据集大小3...

    本实验依托于教材《模式分类》第二版第六章(公式符号与书中一致)

    实验内容:

    设计编写BP神经网络和RBF神经网络,对给定数据集进行分类测试,并将分类准确率与SVM进行对比。

    实验环境:

    matlab2016a

    数据集:

    数据集大小3*3000,表示3000个样本,每个样本包含2个特征,第三行表示样本所属的分类。对于此次实验编写的BP神经网络和RBF神经网络,均将原始数据集分为训练集和测试集两部分,训练集含2700个样本,测试集300样本,并且采用10-折交叉验证,将数据集分为10份,每次将其中一份作为测试,剩余作为训练,总共进行10次验证,得到10个准确率,将10个准确率求平均作为最终的衡量指标,与SVM分类效果进行对比。

    本实验数据集下载:sample_ex6.mat

    BP网络和RBF网络相似但有所不同,因此分开阐述,先来设计BP网络。

    BP神经网络:

    BP网络有三层,输入层,隐含层,输出层,输入层与隐含层之间有权值Wji,隐含层与输出层之间有权值Wkj(i,j,k分别代表各层的神经元数目)。根据给定数据规模,可设计输入层3个神经元(本来是2个神经元,加偏置后变为3),输出层1个神经元,隐含层的神经元个数待会讨论。
    BP网络训练算法需要初始化以下参数:

    (1)隐含层神经元个数

    尽管输入和输出单元数分别由输入向量的维数和类别数目决定,但隐单元个数并不简单与此分类问题的外在特性相关。隐单元的个数决定了网络的表达能力,从而决定判决边界的复杂度。对于较多的隐单元数,训练误差可变得很小,这是因为网络具有较高的表达能力,但这种场合下对测试样本的误差率会很高,是一个“过拟合”的例子;相反隐单元数过少,网络没有足够的自由度来拟合训练集,同样导致测试误差高。一个简单的规则经验是选取隐单元的个数,使得网络的权值总数大致为n/10,n为总的样本数。当然,隐单元的个数需要根据实际效果来调节,这只是一个经验规则。对于本实验,选取初始隐单元数为62左右可使总的权值为n/10。

    (2)激活函数

    一般输入层到隐含层的激活函数需要非线性,饱和性和连续性,而隐含层到输出层的激活函数为线性即可。使用最多的激活函数是sigmoid函数,具有下列形式的激活函数可以很好的工作:

    这里写图片描述

    本次实验中,取a=1.716,b=2/3,从而保证线性范围为-1< net <+1。

    (3)初始化权值

    我们不能简单将权值初始化为0,否则学习过程将不可能开始。我们要设置初始权值以获得快速和均衡地学习,使所有权值同时达到最终的平衡值。为了使-1< net <+1,输入权值应该选取这里写图片描述范围内,d为输入向量的维数。隐含层到输出层的权值应该在这里写图片描述,其中nh为隐含层的神经元个数。

    (4)学习率eta和阈值theta

    学习率决定网络收敛的速度,可以先设为0.1,如果学习速度过慢,则将学习率调大,如果准则函数在学习过程中发散,则将学习率调小。阈值决定训练是否可以停止,设为0.01即可,根据实验效果再调节。

    相关参数初始化后,可以开始训练,有三种训练方式:随机训练、成批训练和在线训练。本实验采用成批训练,更新权值前所有样本都提供一次,记为1个回合。
    开始训练前,记得增广输入向量,给输入向量增加一维恒为1,作为偏置。数据训练前可以先规范化,都映射到-1和1之间,经过实际测试,对于本数据,是否规范化对最后的准确率影响不大,但没有规范化的数据收敛慢,运行时间长。

    实验代码:

    (1)函数 Batch_BP_neutral_network.m(建议使用matlab查看)

    function correct_rate=Batch_BP_Neural_Network(train_data,test_data,hidden_layers,Wji,Wkj,theta,eta)
    %-------------------------------------------------------------------
    %Batch back-propagation neural network function which includes input layer(multiple layers with bias)、
    %hidden layer(multiple layers) and output(one layer)
    %Inputs:
    %train_data     -train data(including samples and its target output)
    %test_data      -test data(including samples and its target output)
    %hidden_layers  -numbers of hidden layers
    %Wji            -weights between input layer and hidden layer
    %Wkj            -weights between hidden layer and putput layer
    %theta          -threhold of target function
    %eta            -learnning rate
    %Output:
    %correct_rate:  -classification correct rate of the test data
    %-------------------------------------------------------------------
    [rows,cols]=size(train_data);
    train_input=train_data(1:rows-1,:);
    train_target=train_data(rows,:);
    test_input=test_data(1:rows-1,:);
    test_target=test_data(rows,:);
    %augmentation the train and test input
    train_bias=ones(1,cols);
    test_bias=ones(1,size(test_data,2));
    train_input=[train_bias;train_input];
    test_input=[test_bias;test_input];
    %batch bp algorithm
    r=0;   %initialize the episode
    J=zeros(1,1000); %initialize the error function
    while(1)     %outer loop
        r=r+1;m=0;DELTA_Wji=zeros(hidden_layers,rows);DELTA_Wkj=zeros(1,hidden_layers);  %initialization
        while(1)    %inner loop
            m=m+1;
            netj=zeros(1,hidden_layers);  
            yj=zeros(1,hidden_layers);
            for j=1:hidden_layers
                netj(1,j)=sum(train_input(:,m)'.*Wji(j,:));   %sum of product 
                yj(1,j)=3.432/(1+exp(-2*netj(1,j)/3))-1.716;   %activation
            end
            netk=sum(yj(1,:).*Wkj(1,:));  %sum of product,output layer has only one neutron
            zk=netk;   %activation
            J(1,r)=J(1,r)+(train_target(1,m)-zk)^2/2;   %every sample has a error
            for j=1:hidden_layers
                delta_k=(train_target(1,m)-zk);  %the sensitivity of output neutrons
                DELTA_Wkj(1,j)=DELTA_Wkj(1,j)+eta*delta_k*yj(1,j); %update the DELTA_Wkj
            end
            delta_j=zeros(1,hidden_layers);
            for j=1:hidden_layers
                delta_j(1,j)=Wkj(1,j)*delta_k*(2.288*exp(-2*netj(1,j)/3)/(1+exp(-2*netj(1,j)/3)^2)); %the sensitivity of hidden neutrons
                for i=1:rows
                    DELTA_Wji(j,i)=DELTA_Wji(j,i)+eta*delta_j(1,j)*train_input(i,m);   %update the DELTA_Wji
                end
            end
            if(m==cols)  %all samples has been trained(one episode)
                break;   %back to outer loop
            end
        end    %end inner loop
        for j=1:hidden_layers
            Wkj(1,j)=Wkj(1,j)+DELTA_Wkj(1,j);   %update Wkj
        end
        for j=1:hidden_layers
            for i=1:rows
                Wji(j,i)=Wji(j,i)+DELTA_Wji(j,i);   %update Wji
            end
        end
        J(1,r)=J(1,r)/cols;
        if((r>=2)&&abs(J(1,r)-J(1,r-1))<theta)  %determine when to stop
            %disp('ok!');disp(r);
            %plot(0:r-1,J(1,1:r));hold on;
            %start to test the model 
            correct=0;
            for i=1:size(test_data,2)
                test_netj=zeros(1,hidden_layers);  
                test_yj=zeros(1,hidden_layers);
                for j=1:hidden_layers
                    test_netj(1,j)=sum(test_input(:,i)'.*Wji(j,:));   %sum of product 
                    test_yj(1,j)=3.432/(1+exp(-2*test_netj(1,j)/3))-1.716;   %activation
                end
                test_netk=sum(test_yj(1,:).*Wkj(1,:));  %sum of product,output layer has only one neutron
                test_zk=test_netk;   %activation
                if((test_zk>0&&test_target(1,i)==1)||(test_zk<0&&test_target(1,i)==-1))
                    correct=correct+1;
                end
            end
            correct_rate=correct/size(test_data,2);
            break;
        end
    end

    (2)主函数

    clear;
    load sample_ex6.mat;  %load data
    [M,N]=size(data);
    hidden_layers=10;
    theta=0.001;
    eta=0.00001;
    wkj=-1/(hidden_layers^0.5)+2/(hidden_layers^0.5)*rand(1,hidden_layers);
    wji=-1/(M^0.5)+2/(M^0.5)*rand(hidden_layers,M);
    %input data normalization
    [norm_data,norm_dataps]=mapminmax(data);
    %10-fold crossing validation
    sub_N=N/10;
    rates=zeros(1,10);
    for i=1:10
        norm_testdata=data(:,1:sub_N);  %set the first part as testdata 
        norm_traindata=data(:,sub_N+1:N);   %set the next nine part as traindata
        rates(1,i)=Batch_BP_Neural_Network(norm_traindata,norm_testdata,hidden_layers,wji,wkj,theta,eta);
        data=[norm_traindata,norm_testdata];
    end
    disp('the accuracy of ten validation:')
    disp(rates);disp('the average accuracy is:')
    ave_rate=sum(rates)/10;
    disp(ave_rate);

    实验结果:

    训练完后,输入测试数据求出分类的准确率,由于采取的是10-fold交叉验证,需要训练10次,下图显示10次训练误差函数与回合的曲线:

    这里写图片描述

    可以看出,随着训练的进行,误差函数一直减小,直到前后两次误差函数的差小于阈值停止训练。

    每次测试的准确率以及最后的平均准确率如下图:

    这里写图片描述
    这里写图片描述

    经过多次实验,平均准确率都在91%左右,不是很高,为什么说不是很高,看后面与SVM的对比就知道了。并且发现隐含层神经元个数取62或者10结果都差不多,准确率相差不大。但隐单元个数少运行时间短,10次交叉验证的总时间为:

    这里写图片描述

    每次运行时间均有差异,十几秒到二十几秒之间。

    这是BP网络设计部分,RBF网络设计以及与SVM的对比 将在下一篇博文:Matlab实现BP神经网络和RBF神经网络(二)中讨论。

    展开全文
  • 9. 不包括特殊字符匹配 (字符串中不包括符号 数学次方号^ 单引号' 双引号" 分号; 逗号, 帽号: 数学减号- 右尖括号> 左尖括号反斜杠\ 即空格,制表符,回车符等 10 匹配非负整数(正整数 + 0) 11 匹配不包括零...
  • 是POSIX标准定义unix类系统定义符号常量头文件,包含了许多UNIX系统服务函数原型,例如read函数、write函数getpid函数 unistd.h在unix中类似window中windows.h! #ifdef WIN32 #include #else #...

    #include    <unistd.h>

    符号常量

    是POSIX标准定义的unix类系统定义符号常量的头文件,包含了许多UNIX系统服务的函数原型,例如read函数、write函数和getpid函数

    unistd.h在unix中类似于window中的windows.h!
    #ifdef WIN32
    #include <windows.h>
    #else
    #include <unistd.h>
    #endif

    unistd.h含有的常量与函数:

    ssize_t      read(int, void *, size_t);
    int          unlink(const char *);
    ssize_t      write(int, const void *, size_t);
    int          usleep(useconds_t);
    unsigned     sleep(unsigned);

    int          access(const char *, int);
    unsigned     alarm(unsigned);
    int          chdir(const char *);
    int          chown(const char *, uid_t, gid_t);
    int          close(int);
    size_t       confstr(int, char *, size_t);
    void        _exit(int);
    pid_t        fork(void);

     

    NULL           // Null pointer
    SEEK_CUR    // Set file offset to current plus offset.
    SEEK_END    // Set file offset to EOF plus offset.
    SEEK_SET    // Set file offset to offset.


    windows.h的相关介绍:http://baike.baidu.com/view/1586331.htm

    展开全文
  • c# 加密解密相关代码

    热门讨论 2011-09-06 11:04:59
    本实例实现时主要用到了string 类ToCharArray 方法Convert 类ToChar 方法,下面分别对它们进行 详细介绍。 (1)string类ToCharArray 方法 string类ToCharArray 方法用来将字符串中字符复制到Unicode ...
  • 有些不方便编码的符号集,可使用它的俗称名称的五笔编码,比如文档中要用的编号,就按照“编号”输入,可打出“①②③④⑤⑥⑦⑧⑨⑩??????????”等符号集。 拼音用户也可参照此种编码模式,按照最小优先的原则,以...
  • 方案设计反思一

    2019-10-03 17:39:51
    故事起源老婆与我探讨一个解决方案。 琳:“有一个问题,我有几百个表情符号,这种文本[xx]。我选出来正向表情10个,负想表情10个。... 苏遇:“把微博一条一条读进来,如果包含表情符号,...

      故事起源于老婆与我探讨的一个解决方案。

      琳:“有一个问题,我有几百个表情符号,这种文本的[xx]。我选出来正向表情10个,负想表情10个。然后选择只含有这正向表情的微博和只含有负向表情的微博。这个怎么做呢?我之前选的的微博都混在一起了。”
    
      苏遇:“你是说要挑出含表情符号的微博?”
    
      琳:“嗯。”
    
      苏遇:“把微博一条一条的读进来,如果包含表情符号,就保存。”
    
      琳:“是。你仔细看我的问题,只含有正向那10个,怎么挑?”
    
      ……
    

      说了半天,我确实是没有看懂老婆提出的问题。最终老婆是想选择只含有这正向表情的微博和只含有负向表情的微博,只含有的意思是不包含其他中立表情等等。于是我给出的解决方案是:先判断是否包含中立表情;如果是,退出当前逻辑(也许是一个函数);如果不是,则判断是否含有正向或者负向的表情;如果是,则保存;不是,则退出当前逻辑。

      接着,老婆说中立表情符号几百个呢,正向负向表情都是10个。

      在后面的交谈中,我反思出了几个问题。老婆提出的这个问题背景,首先的一点是按照之前的解决方案,我们需要花费很大的人力去把几百个中立表情符号弄到程序里去。或者是先保存在磁盘上,或者是直接硬编码到程序中。当然不管无论如何,我们都难以避免枯燥乏味的并且是程序员最讨厌,却又最常做的一件事情,那就是复制粘贴。潜在的还有一个问题就是效率的问题。因为老婆可能需要处理几千万条微博。这里只是可能,毕竟我们只是做实验,当然可以偷懒,也就是偷偷的去掉几个零。首先每一条微博读到程序中之后,需要对几百个表情符号进行一一判定,时间复杂度直接就是 (Nmicroblog)*(Nemotion)*(log AVG length of microblog)。查找的复杂度就是算微博平均长度的对数值。而面对几千万条微博而言,也许我们可以好几天不用来实验室了,在寝室好好的休息几天。

      我想了半天没有任何思绪来优化。因为我们的需求已经说明了,必须要查找中立表情,然后再查找正向负向表情。真的就没有优化方案了吗?只是因为我把自己的思维定死在需求上了,而没有去真正的设计一个解决方案。接下来,老婆说的一句话成为了亮点。

      琳:“排除正负表情,其他都是中立。”
    
     苏遇:“恩,那就按你刚才这句话做。”
    

       确实,当我听到这句话的时候,就恍然大悟了。其实我们的需求本质上是3个条件判断,我们只要调整好条件判断的顺序就可以事半功倍。我们先判断一条微博是否含有正向表情,然后判断是否含有负向表情,最后呢?当然不是去判断是否含有中立表情。优化的解决方案有一个关键步骤,就是我们需要把微博中的表情提取出来。表情符号在文本中有一定的格式,即[**]这种格式。我们可以使用正则表达式来提取这些表情符号,然后经过正向表情和负向表情的判定之后,就可以了。因为除了正负表情,它就是中立表情。于是乎,世界忽然之间就一切太平了。

      只是,这该死的正则表达式几乎要让我癫狂了。因为我基本不会写。不过最后还是碰巧试对了。

    Pattern p = Pattern.compile("(\\[[^\\]]{1,3}\\])",Pattern.CASE_INSENSITIVE + Pattern.MULTILINE);

      这个问题也没这样简单的就结束了。因为它一直在我脑海中回荡。在上厕所的时候,我还想到了另外一种解决方案。其思路没有变化,只是用上了一些高级的工具。或者我们可以使用Hadoop来解决它。

    转载于:https://www.cnblogs.com/onliny/archive/2012/06/20/2555884.html

    展开全文
  • (0x90 是C 语言中十六进制数写法,相当汇编语言中写90H)。 从这里还可以看到一个频繁出现词:sfr sfr 并标准C 语言关键字,而是Keil 为能直接访问80C51 中SFR 而提供了一个新 关键词,其用法是: sfrt...
  • 集合

    2016-01-17 20:55:00
    间,表明元素与集合之间关系“包含于”是说某一个集合A所有元素都是另外一个集合元素B。只能用 于集合集合之间,表明集合与集合之间关系。其符号是大写字母U放倒, 使U圆头指向子集A。2、空集属于...
  • linux标准库#include <unistd.h>

    万次阅读 2012-09-23 14:31:57
    是POSIX标准定义unix类系统定义符号常量头文件,包含了许多UNIX系统服务函数原型,例如read函数、write函数getpid函数 unistd.h在unix中类似window中windows.h! #ifdef WIN32 #include #else #...
  • 器内容改变,而是从工程角度直接看程序运行电路工作过程结果。 对于这样仿真实验,从某种意义上讲,是弥补了实验工程应用间脱节矛 第5 页共27 页 盾现象。 3 系统详细设计: 3.1 硬件设计 3.1.1 ...
  • PyTorch:具有强大CPU加速功能,包含张量动态神经网络Python库。 Recast/Detour:(3D)导航网格生成器路径查找,主要用于游戏。 TensorFlow:使用数据流图进行数值计算开源软件库。 CNTK:Microsoft ...
  • Python3 正则表达式

    2020-11-29 16:36:42
    正则表达式模式 模式字符串使用特殊语法来表示一个正则表达式: 字母数字表示他们自身。一个正则表达式模式中字母数字匹配同样字符串。...如果你使用模式同时提供了可选标志参数,某些模式元素的含
  • 正则表达式模式 模式字符串使用特殊语法来表示一个正则表达式: 字母数字表示他们自身。一个正则表达式模式中字母数字匹配同样字符串。...如果你使用模式同时提供了可选标志参数,某些模式元素的含
  • 通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • 通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • 通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • 通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • 通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • Visual Assist X.10.6.1842

    2011-04-22 10:43:39
    通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • 通过内容查找可以快速跳到相同名称的符号处,在您工作台的任何地方都可以找到符号定义,还可以转入您代码中的符号执行处。选择您文件的列表方式,锁定头文件相应的cpp文件。从您的工作台文件列表中打开文件。含有...
  • 同舟CAD——绘图大师

    2014-12-24 22:03:19
    <同舟CAD>是AutoCAD二次开发增值工具,适合机械类或相关行业设计,倾注诸多资深机械设计师工程绘图经验,不断满足设计人员需求,是CAD工作者以及CAD爱好者不可缺少精品工具。快速、高效是我们共同追求!本...

空空如也

空空如也

1 2 3 4 5
收藏数 99
精华内容 39
关键字:

含于和包含于的符号