精华内容
下载资源
问答
  • 产品包装结构尺寸设计简单说明图文结合.doc
  • 工厂生产的产品包装在相同高度h,尺寸为1*1,2*2,3*3,4*4,5*5,6*6的方形包装中. 这些产品始终以与产品高度相同的尺寸为6*6的包裹交付给客户. 因为邮费很贵,所以工厂要想方设法地减少每个订单运送时的包裹数量. 他们很...

    本文解题参考http://bestmind.space/2017/08/29/

    因为看到一半实在看不明白,所以干脆撸起袖子自己干了。本人写的比较繁琐,上面仁兄写的比我简洁。

    //解题思路:先处理大尺寸之间不能相互兼容的,因此每个大尺寸需要一个盒子,然后对各个盒子剩余空间进行填充,填充由大到小顺序进行
    //大尺寸确定其相关盒子数量后,要看1*1和2*2的填充情况,如果有剩余则要添加盒子。

    void getMinBox2()

    {
    int products[6] = { 0 };
    int boxNum = 0;
    vector<int> vec;
    while (1)
    {
    boxNum = 0;
    cin >> products[0] >> products[1] >> products[2] >> products[3] >> products[4] >> products[5];

    boxNum += products[5];//6*6 独占一个盒子

    boxNum += products[4];//5*5 一个盒子只能有一个,剩下空间最大可以放11个1*1

    boxNum += products[3];//4*4  一个盒子一个,剩下空间最多可以放5个2*2或20个1*1

    boxNum += products[2] / 4;//3*3 一个盒子最多可以放4个,剩下空间可以放2*2或1*1或两者的混合

    int res3 = products[2] % 4;//计算3*3剩余个数;
    if (res3 != 0)//如果有剩余3*3的,则放在一个盒子中,所以加1
    {
    boxNum += 1;
    }

    //从4*4的剩余空间处理2*2 (5*5的剩余空间只能存放1*1)
    int _44contain22 = products[3] * 5;//4*4剩余空间能容纳最大的2*2的数量
    //根据剩余res3(3*3)个数判断剩余空间最大可容纳的2*2的数量  可以通过画图了解,总共有以下情况;
    //1,res3==0 则最大可容纳0个2*2(此时3*3刚好填满一个6*6)
    //2,res3==1  则最大可容纳5个2*2
    //3,res3==2  则最大可容纳3个2*2
    //4,res3==3  则最大可容纳1个2*2
    //由此建立数组
    int _33resContainMax22s[4] = { 0, 5, 3, 1 };
    //同理可以建立
    int _33resContainMax11s[4] = { 0, 27, 18, 9 };
    //首先填充5*5剩余空间(因为此空间只能由1*1填充),
    //如果1*1个数 小于等于所有5*5所能容纳的个数,则1*1没有剩余,而且可能存在剩余空间,但是此剩余空间只能浪费。
    int res1 = products[0] - (products[0]>products[4] * 11 ? products[4] * 11 : products[0]);//1*1剩余个数,取值[0,products[0]];

    //现在分析剩下2*2和1*1的填充情况
    //2*2
    if (_44contain22 >= products[1])//能够容纳2*2
    {
    int res44contain22 = _44contain22 - products[1];//剩余可放置2*2空间个数,可用来放置1*1
    res1 -= min(res44contain22, res1);
    if (res1>0)//说明没装下1*1,得往3*3剩余空间放置。
    {
    res1 -= min(res1, _33resContainMax11s[res3]);
    if (res1>0)
    {
    boxNum += (ceil((float)res1 / 36));
    if (res1 % 36>0)
    {
    ++boxNum;
    }
    }
    }
    }
    else//4*4剩余空间不能够容纳2*2,则看3*3剩余空间
    {
    int res2 = products[1] - _44contain22;//剩余2*2个数
    if (res2 <= _33resContainMax22s[res3])//3*3剩余空间可以容纳2*2
    {
    res1 -= min(res1, (36 - res2 * 4 - res3 * 9));
    if (res1>0)
    {
    boxNum += (ceil((float)res1 / 36));
    if (res1 % 36>0)
    {
    ++boxNum;
    }
    }
    }
    else//3*3剩余空间不能够装下2*2
    {
    res2 -= _33resContainMax22s[res3];
    res2 += res1 / 4;
    res1 %= 4;//此时,res1 0,1,2,3
    boxNum += (ceil((float)res2 / 9));
    if (res2 % 9 > 0 || res1 > 0)//如果res2 % 9 > 0则说明至少一个2*2空间剩余,可以放置1*1
    {
    ++boxNum;
    }


    }
    }
    if (!products[0] && !products[1] && !products[2] && !products[3] && !products[4] && !products[5])break;
    vec.push_back(boxNum);
    }
    vector<int>::iterator it = vec.begin();
    for (; it != vec.end(); ++it)
    {
    cout << (*it) << endl;
    }
    }
    展开全文
  • 需要高温、高压,且在高温、高压下很长时间 对于有的图案,仍然不能完全填充印章的腔体 应用: 纸张、织物、皮料等礼品包装 图书封面烫金,礼品盒烫金,烟、酒、服装的商标和盒子的烫金 贺卡、请柬、笔的烫金 3、热...

    1、丝网印(属孔板印刷)

    1)优势:

    • 制版方便,价格便宜,批量印制成本易控制
    • 适用于1-4种不同颜色组成的LOGO
    • 数量不大而墨色需要浓厚的尤为适宜
    • 不受承载品的质地限制,压印力小,耐光性强,不易掉色
    • 附着力强,印制出的图案更有立体感

    2)劣势:

    • 丝网印刷只适合颜色单一,过渡色简单的场景

    2、烫印(也叫压印)俗称烫金

    1)优势:

    • 图案清晰、表面光洁平整、线条挺直、美观、色彩鲜艳、有现代感
    • 耐磨、耐候,其颜色和花纹多
    • 可以根据具体要求定做专版
    1. 劣势:
    • 需要高温、高压,且在高温、高压下很长时间
    • 对于有的图案,仍然不能完全填充印章的腔体
    1. 应用:
    • 纸张、织物、皮料等礼品包装
    • 图书封面烫金,礼品盒烫金,烟、酒、服装的商标和盒子的烫金
    • 贺卡、请柬、笔的烫金

    3、热转印

    1)优势:

    • 特别适合制作少量多样的个人化及客制化商品,以及印制包含全彩图像或照片的团
    • 可以在皮革、纺织布料、有机玻璃、金属、塑料、水晶、木制品、铜版纸等任意相对平面材质上,进行一次性多色、任意复杂色、过渡色印刷的数码印刷机
    • 成图完整、层次丰富、色差小
    1. 劣势:
    • 并不是所有商品都能用热转印来印制图案,牵涉到商品的奶惹怒、平滑度等因素
    • 需要专业热转印设备,对于陶瓷、金属等物品需要表面有热转印图层
    1. 应用:
    • 衣服、布质包包、帽子、抱枕、马克杯、瓷砖、手表、鼠标垫、杯垫、挂式年历、奖牌、锦旗

    4、激光雕刻

    1. 优势:
    • 科技感强,无接触,无切削力,热影响小
    • 激光雕刻的标志精细,线条可以达到毫米到微米量级
    • 采用激光标刻技术制作的标记被仿造和更改是非常困难的
    1. 应用:
    • 木制品、有机玻璃、金属板、玻璃、石材、水晶、纸张、双色板、氧化铝、皮革、树脂、喷塑金属

    5、彩印

    1)优势:

    • 印刷成本低,印刷尺寸可选,占用空间小
    • 颜色饱和艳丽,色域宽广,过渡性好

    2)应用:

    个人用品、工艺礼品、办公用品、文具标牌、家装建材、鲜花布艺、服饰鞋帽

     

    作者:简约,公众号:简一商业

    本文由 @简一商业 原创发布于CSDN,未经作者许可,禁止转载

     

    展开全文
  • 第一类是包装正常,第二类是包装缝合处破损,第三类是变形,本来应该还有一类是封口铁丝缺失的检测的,但拍照出来resize后连肉眼都难以区分,就没有加进去,这三类图片分别如下 首先是样本数据的采集,我使用手机...

    作为大三学期的机器视觉这门课的课程设计,之前给自己挖下的坑,含着泪也要给补上
    环境要求:anaconda tensorflow-1.12.0 opencv-4.1.2
    这次的任务是使用cnn神经网络对火腿肠的外包装进行缺陷检测,这里需要将火腿肠外包装情况使用cnn给分成三类,第一类是包装正常,第二类是包装缝合处破损,第三类是变形,本来应该还有一类是封口铁丝缺失的检测的,但拍照出来resize后连肉眼都难以区分,就没有加进去,这三类图片分别如下

    在这里插入图片描述在这里插入图片描述在这里插入图片描述
    首先是样本数据的采集,我使用手机摄像头在固定的高度下对火腿肠进行30帧每秒的录像,然后从视频里提取了每类大约两千多张的样本图片,后将其resize成200*200像素大小,代码如下:

    import numpy as np
    import cv2 as cv
    import os
    
    cap = cv.VideoCapture("./video/malformation3.mp4")
    frame_num=0
    
    while cap.isOpened():
        ret, frame = cap.read()
        if not ret:
            print("Can't receive frame (stream end?). Exiting ...")
            break
        if cv.waitKey(1) == ord('q'):
            break
        cropped=frame[100:600,200:700]
        resize_pic = cv.resize(cropped, (200, 200))
        cv.imshow('resize',resize_pic)
        cv.imwrite('./test/malformation'+str(frame_num)+'_test.png',resize_pic)
        frame_num=frame_num+1
    cap.release()
    

    得到训练数据后,根据其文件名称,给每张图打上标签,为后面做准备

    import tensorflow as tf
    import numpy as np
    import os
    import re
    # np.set_printoptions(threshold=100000)
    
    '''
    功能:获取训练数据地址,存储标签
    参数:imagedir
    imagedir: 训练数据地址
    返回:imagelist, labellist
    imagelist:图片位置列表
    labellist:数据标签列表
    '''
    
    
    def get_file(imagedir):
        images = []
        labels = []
        for root, dirs, files in os.walk("./train"):
            for filename in files:
                images.append(os.path.join(root, filename))  # 图片所在目录list
        for prefolder in images:
            letter = prefolder.split('\\')[-1]
            #print(letter)
            if re.match('normal', letter):  # 匹配图片名称
                labels = np.append(labels, [0])
            elif re.match('notSuture', letter):
                labels = np.append(labels, [1])
            elif re.match('malformation', letter):
                labels = np.append(labels, [2])
        temp = np.array([images, labels])  # 将图片地址和标记存入矩阵中
        temp = temp.transpose()  # 转置
        np.random.shuffle(temp)  # 打乱元素
        np.random.shuffle(temp)  # 打乱元素
        np.random.shuffle(temp)  # 打乱元素
        imagelist = list(temp[:, 0])  # 第一列的所有元素
        labellist = list(temp[:, 1])
        labellist = [int(float(i)) for i in labellist]  # 将标记转化为整形
        # print(labellist)
        return imagelist, labellist
    
    
    '''
    功能:获取训练数据地址,存储标签
    参数:image_list, label_list, img_width, img_height, batch_size, capacity, channel
    image_list: 图片位置列表
    label_list:数据标签列表
    img_width:训练图片size
    img_height:训练图片size
    batch_size:训练batch size
    capacity:线程队列里面包含的数据数量
    channel:输入数据通道数
    返回:image_batch, label_batch
    image_batch:图片batch
    label_batch:数据标签batch
    '''
    
    
    def get_batch(image_list, label_list, img_width, img_height, batch_size, capacity, channel):
        image = tf.cast(image_list, tf.string)
        label = tf.cast(label_list, tf.int32)
    
        input_queue = tf.train.slice_input_producer([image, label])
        label = input_queue[1]
        # 读入图片数据
        image_contents = tf.read_file(input_queue[0])
        # 解码图片为二进制
        image = tf.image.decode_jpeg(image_contents, channels=channel)
        # 统一图片数据尺寸
        image = tf.image.resize_images(image, (img_height, img_width))
        # 减均值 去除平均亮度值
        image = tf.image.per_image_standardization(image)
        # 随机队列
        image_batch, label_batch = tf.train.shuffle_batch([image, label],
                                                          batch_size=batch_size,
                                                          num_threads=2,
                                                          min_after_dequeue=200,
                                                          capacity=capacity)
        # 重构标签shape
        label_batch = tf.reshape(label_batch, [batch_size])
        return image_batch, label_batch
    

    前期工作准备好了,接下来到了重头戏,搭建神经网络训练神经网络,这里我使用的是12层深度的网络,前10层为隐含层,第11层为全连接层,经过第12层的softmax层后,最终输出各个类的得分,激活函数使用的是relu函数,损失函数为交叉熵损失函数,优化器选择自适应梯度下降方式,使用maxpool对数据进行下采样,为防止过拟合,加了一个dropout处理,keep_prob取0.9左右,也就是抛弃10%左右的神经元,学习率learning_rate = 0.00001,过大的学习率会导致发散现象,过小的学习率效率太低

    import tensorflow as tf
    import numpy as np
    import matplotlib.pyplot as plt
    import time
    import markLabel
    import os
    import cv2 as cv
    import tensorflow.contrib.layers as layers
    import re
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    
    # 输入数据尺寸
    imw = 200
    imh = 200
    # 输入数据通道
    cn = 3
    # bn层flag 训练的时候True 测试的时候False
    flg = True
    batch_size = 100
    
    #学习率
    learning_rate = 0.00001
    
    # 获取数据和标签list
    X_train, y_train =markLabel.get_file("./train")
    image_batch, label_batch = markLabel.get_batch(X_train, y_train, imw, imh, batch_size, 1000, cn)
    
    #定义输入的placeholder,xs=200*200*3,ys=3即分为3类
    xs=tf.placeholder(tf.float32,[None,200,200,3])
    ys=tf.placeholder(tf.float32,[None,3])
    
    #定义dropout的placeholder,防止过拟合
    keep_prob=tf.placeholder(tf.float32)
    
    #图片大小200*200*3
    x_image=tf.reshape(xs,[-1,200,200,3])
    
    
    
    #定义Weight变量
    def weight_variable(shape): 
    	initial=tf.truncated_normal(shape,stddev=0.1) #产生随机变量来进行初始化
    	return tf.Variable(initial)
    
    #定义bias变量
    def bias_variable(shape): 
    	initial=tf.constant(0.1,shape=shape)   #产生随机变量来进行初始化
    	return tf.Variable(initial)
    
    #输入图片x和卷积核W(也称权重W)
    def conv2d(x,W):
    	return tf.nn.conv2d(x,W,[1,1,1,1],padding='SAME')
    
    #池化的核函数大小为2x2,步长为2
    def max_pool_2x2(x): 
    	return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')
    
    def onehot(labels):
        n_sample = len(labels)
        n_class = 3
        onehot_labels = np.zeros((n_sample, n_class))
        onehot_labels[np.arange(n_sample), labels] = 1
        return onehot_labels
    
    
    # =============================================================================
    # 第1层:convolutional layer1 + max pooling;
    # 第2层:convolutional layer2 + max pooling;
    # 第3层:convolutional layer3 + max pooling;
    # 第4层:convolutional layer4 + max pooling;
    # 第5层:convolutional layer5 + max pooling;
    # 第6层:fully connected layer1 + dropout;
    # 第7层:fully connected layer2 to prediction.
    # =============================================================================
    
    #把xs的形状变成[-1,200,200,3],不考虑图片维度,图片尺寸200*200,三个通道
    x_image=tf.reshape(xs,[-1,200,200,3])
    
    #第一层卷积核5*5,输入维度(图片维度)=3,输出32个featuremap,偏置为3个通道*32
    W_conv1=weight_variable([5,5,3,32])
    b_conv1=bias_variable([32])
    
    #第一个卷积层,激活函数使用relu(修正线性单元),输出大小就变成了200x200x32
    h_conv1=tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)
    
    W_conv1_2=weight_variable([1,1,32,32])
    b_conv1_2=bias_variable([32])
    
    #第一个卷积层,激活函数使用relu(修正线性单元),输出大小就变成了200x200x32
    h_conv1_2=tf.nn.relu(conv2d(h_conv1,W_conv1_2)+b_conv1_2)
    
    #pooling处理,输出为100*100*32
    h_pool1=max_pool_2x2(h_conv1_2)
    
    
    
    ##第二层卷积核3*3,输入为上一层输出(32个特征),本层输出64个featuremap
    W_conv2=weight_variable([3,3,32,32])
    b_conv2=bias_variable([32])
    
    #激活函数使用relu(修正线性单元),输出的大小为100x100x64
    h_conv2=tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)
    
    W_conv2_2=weight_variable([3,3,32,64])
    b_conv2_2=bias_variable([64])
    
    #激活函数使用relu(修正线性单元),输出的大小为100x100x64
    h_conv2_2=tf.nn.relu(conv2d(h_conv2,W_conv2_2)+b_conv2_2)
    
    W_conv2_3=weight_variable([1,1,64,64])
    b_conv2_3=bias_variable([64])
    
    #激活函数使用relu(修正线性单元),输出的大小为100x100x64
    h_conv2_3=tf.nn.relu(conv2d(h_conv2_2,W_conv2_3)+b_conv2_3)
    
    #pooling处理,输出为50*50*64
    h_pool2=max_pool_2x2(h_conv2_3)
    
    
    
    ##第三层卷积核3*3,输入为上一层输出(64个特征),本层输出128个featuremap
    W_conv3=weight_variable([3,3,64,64])
    b_conv3=bias_variable([64])
    
    #激活函数使用relu(修正线性单元),输出的大小为50x50x128
    h_conv3=tf.nn.relu(conv2d(h_pool2,W_conv3)+b_conv3)
    
    W_conv3_2=weight_variable([3,3,64,128])
    b_conv3_2=bias_variable([128])
    
    #激活函数使用relu(修正线性单元),输出的大小为50x50x128
    h_conv3_2=tf.nn.relu(conv2d(h_conv3,W_conv3_2)+b_conv3_2)
    
    #pooling处理,输出为25*25*128
    h_pool3=max_pool_2x2(h_conv3_2)
    
    
    
    ##第四层卷积核3*3,输入为上一层输出(64个特征),本层输出192个featuremap
    W_conv4=weight_variable([3,3,128,128])
    b_conv4=bias_variable([128])
    
    #激活函数使用relu(修正线性单元),输出的大小为25x25x192
    h_conv4=tf.nn.relu(conv2d(h_pool3,W_conv4)+b_conv4)
    
    W_conv4_2=weight_variable([3,3,128,128])
    b_conv4_2=bias_variable([128])
    
    #激活函数使用relu(修正线性单元),输出的大小为25x25x192
    h_conv4_2=tf.nn.relu(conv2d(h_conv4,W_conv4_2)+b_conv4_2)
    
    #pooling处理,输出为13*13*192
    h_pool4=max_pool_2x2(h_conv4_2)
    
    
    
    ##第五层卷积核3*3,输入为上一层输出(192个特征),本层输出256个featuremap
    W_conv5=weight_variable([3,3,128,128])
    b_conv5=bias_variable([128])
    
    #激活函数使用relu(修正线性单元),输出的大小为13x13x256
    h_conv5=tf.nn.relu(conv2d(h_pool4,W_conv5)+b_conv5)
    
    W_conv5_2=weight_variable([3,3,128,128])
    b_conv5_2=bias_variable([128])
    
    #激活函数使用relu(修正线性单元),输出的大小为13x13x256
    h_conv5_2=tf.nn.relu(conv2d(h_conv5,W_conv5_2)+b_conv5_2)
    
    #pooling处理,输出为7*7*256
    h_pool5=max_pool_2x2(h_conv5_2)
    
    
    # =============================================================================
    # 建立全连接层
    # =============================================================================
    
    #将三维矩阵为一维的数据,不考虑输入图片例子维度, 将上一个输出结果展平.
    h_pool5_flat=tf.reshape(h_pool5,[-1,7*7*128])
    
    #输入为第三个卷积层展平了的输出,
    W_fc1=weight_variable([7*7*128,1024]) 
    b_fc1=bias_variable([1024])
    
    #将展平后的h_pool3_flat与本层的W_fc1相乘(非卷积)
    h_fc1=tf.nn.relu(tf.matmul(h_pool5_flat,W_fc1)+b_fc1)
    
    #防止过拟合,加一个dropout
    h_fc1_drop=tf.nn.dropout(h_fc1,keep_prob)
    
    #最后一层, 输入是1024,输出3个分类
    W_fc2=weight_variable([1024,3])
    b_fc2=bias_variable([3])
    
    #softmax分类器,输出各类的得分
    prediction=tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)
    
    
    #交叉熵损失函数
    cross_entropy=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=prediction,labels=ys))
    
    #优化器,自适应梯度下降
    train_step=tf.train.AdamOptimizer(learning_rate).minimize(cross_entropy)
    
    #评估模型
    correct_pred = tf.equal(tf.argmax(prediction, 1), tf.argmax(ys, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
    
    

    神经网络搭建好了,下面就该给这个网络feed数据了,受限于电脑的内存大小(8G),这里将7100多张图片分成71个批次进行训练,每批次100张图片,内存大的可以适当增大每批次的数据量

    def train(opech, is_continnue_train=False):
        with tf.Session() as sess:
            sess.run(tf.global_variables_initializer())
            saver = tf.train.Saver()    # 模型保存
    
            loss_temp = []  # loss值存数列表
            acc_temp = []  # 准确度存储列表
    
            # 启动线程
            coord = tf.train.Coordinator()
            threads = tf.train.start_queue_runners(coord=coord)
            for i in range(opech):
                str_ing = 'lr=' + str(learning_rate) + '迭代=' + str(opech)
    
                image, label = sess.run([image_batch, label_batch])  # 获取输入数据和标签
                labels = onehot(label)  # 将标签转为one hot 格式
                
                sess.run(train_step, feed_dict={xs: image, ys: labels, keep_prob:0.95})  # 启动优化函数
                loss_record, acc, c1, c1_2, c2, c2_2, c2_3, c3, c3_2, c4, c4_2, c5, c5_2 = sess.run([cross_entropy,
                                                    accuracy,
                                                    h_conv1,
                                                    h_conv1_2,
                                                    h_conv2,
                                                    h_conv2_2,
                                                    h_conv2_3,
                                                    h_conv3,
                                                    h_conv3_2,
                                                    h_conv4,
                                                    h_conv4_2,
                                                    h_conv5,
                                                    h_conv5_2],
                                                    feed_dict={xs: image, ys: labels, keep_prob:0.95})
                print("now the loss is %f " % loss_record)
                print("now the acc is %f " % acc)
                loss_temp.append(loss_record)
                acc_temp.append(acc)
    
                print("---------------%d onpech is finished-------------------" % i)
            print("Optimization Finished!")
            saver.save(sess, "./model")
            print("Model Save Finished!")
            coord.request_stop()
            coord.join(threads)
            plt.plot(loss_temp, 'b-', label='loss')
            plt.plot(acc_temp, 'r-', label='accuracy')
            plt.legend(loc='upper right')
            plt.xlabel('Iter')
            plt.ylabel('loss/acc')
            plt.title('lr=%f, ti=%d' % (learning_rate, opech))
            plt.tight_layout()
            plt.savefig('M2_' + str_ing + '.jpg', dpi=200)
            plt.show()
    
    train(71, is_continnue_train=True)
    

    经过漫长的等待(一个小时左右,取决于电脑的配置),我这只能得到70%左右的精度

    在这里插入图片描述
    也就是说,这个模型只能识别其中的两个类别,估计也就是能区分正常和包装破损这两类,对于畸形的包装,由于和正常包装的区分度不高,导致模型没能识别出来,为此,笔者尝试增加网络的深度到19层来看下是否能够提高精度,但都是训练到一半意外停止,估计是电脑配置的问题,于是放弃了这个方法,现在在考虑使用attention机制来提高模型的准确度,也就是在不同区域训练出一个权值矩阵,对特别的区域增大其权值。比如对于封口铁丝的缺失,在封口附近提高其权重,使得模型注意该区域的特征。或者最近两年提出的细粒度分类对于包装的缺陷检测也是一个改进的方向。

    展开全文
  • 1、白卡纸 230g/m2 1号白卡纸 0.288mm  ...铜版纸应用相对较少,因为其品质及范围与卡纸相同,顾应用并不是十分广泛,多应用于画册封面、内页、卡片、名片、请柬、包装盒、手提袋等。    

    1、白卡纸

    230g/m2 1号白卡纸  0.288mm 
    250g/m2 1号白卡纸  0.313mm 
    200g/m2 2号白卡纸  0.267mm 
    230g/m2 2号白卡纸  0.307mm 
    250g/m2 2号白卡纸  0.333mm 
    200g/m2 特号白卡纸 0.235mm 
    230g/m2 特号白卡纸 0.271mm 
    250g/m2 特号白卡纸 0.294mm

    2、双面白工业纸板

    1200g 厚度 1.55±0.05mm      
    1300g 厚度 1.70±0.05mm      
    1400g 厚度 1.85±0.05mm      
    2000g 厚度 2.7±0.05mm

    3、双面工业灰纸板

    400g  厚度 0.6±0.05mm  
    500g  厚度 0.75±0.5mm  
    600g  厚度 0.9±0.05mm  
    700g  厚度 1.05±0.05mm 
    800g  厚度 1.2±0.05mm  
    900g  厚度 1.35±0.05mm 
    1000g 厚度 1.5±0.05mm 
    1100g 厚度 1.65±0.05mm
    1200g 厚度 1.8±0.05mm 
    1300g 厚度 1.95±0.05mm      
    1400g 厚度 2.1±0.05mm 
    1500g 厚度 2.25±0.05mm
    1700g 厚度 2.55±0.05mm
    1800g 厚度 2.7±0.05mm 
    1900g 厚度 2.85±0.05mm
    2000g 厚度 3.0±0.05mm 
    2100g 厚度 3.15±0.05mm
    2200g 厚度 3.30±0.05mm
    2300g 厚度 3.45±0.05mm
    2400g 厚度 3.6±0.05mm 
    2500g 厚度 3.75±0.05mm
    3000g 厚度 4.50±0.05mm

    4、灰底工业灰纸板

    800g  厚度 1.05±0.05mm 
    900g  厚度 1.20±0.05mm 
    1000g 厚度 1.35±0.05mm
    1100g 厚度 1.50±0.05mm
    1200g 厚度 1.65±0.05mm
    1300g 厚度 1.80±0.05mm
    1400g 厚度 1.95±0.05mm
    1500g 厚度 2.10±0.05mm      
    1600g 厚度 2.25±0.05mm      
    1700g 厚度 2.4±0.05mm    
    1800g 厚度 2.55±0.05mm
    1900g 厚度 2.70±0.05mm
    2000g 厚度 2.85±0.05mm
    2100g 厚度 3.00±0.05mm
    2200g 厚度 3.15±0.05mm
    2300g 厚度 3.30±0.05mm
    2400g 厚度 3.45±0.05mm      
    2400g 厚度 3.60±0.05mm

    5、不同克重铜版纸区别和用途

    铜版纸克重有很多种,常见的包括:

    70,80,100,105,115,120,128,150,157,180,200,210,240,250(g/m2)

    其中:105,115,128,157(g/m2)进口纸规格较多。

    不同克重铜版纸有什么不同的用途呢?

    1)105g和128g铜版纸的用途

    这是铜板纸中最低限度正背四色印刷的纸张克重。

    因为纸张太薄会使印刷品遮挡性不强,容易造成前后透印的现象,多应用于杂志内页,插页及大批量低档次宣传品中。

    2)157g铜版纸的用途

    铜版纸是目前在普通单页印刷中选择最为广泛的克重,大部分的广告单页、折页多为157g铜版纸。

    多应用于单页、折页、画册内页、海报等。

    3)200g、250g 铜版纸的用途

    铜版纸相对于157g铜版纸造价要高,多为大公司、追求品质的客户首选,多应用于高品质单页、海报、画册封面、内页、卡片、包装盒等。

    4)300g、350g铜版纸的用途

    铜版纸应用相对较少,因为其品质及范围与卡纸相同,顾应用并不是十分广泛,多应用于画册封面、内页、卡片、名片、请柬、包装盒、手提袋等。

     

     

    展开全文
  • 包装机械产品分类及概述 包装机械是指能完成全部或部分产品和商品包装过程的机械。 包装过程包括充填、裹包、封口等主要工序,以及与其相关的前后工序,如清洗、堆码和拆卸等。此外,包装还包括计量或在包装件上...
  • InsoftaCover Commander 让你可以制作看起来非常专业的适合于网络发布或者打印的模拟产品包装和应用软件截图.该软件提供了若干个用于创建带有或者不带有光盘的,模拟光盘和带有可选择的阴影和倒影效果的既可以是整齐...
  • //开始装2*2的产品时需要的空间大小 int need11 = 0; for (int i = 3; i ; i++) { if (nums[i] != 0) count += nums[i]; } spareSum55 = nums[4] * 11; spareSum44 = nums[3] * 20; //开始装3*3 if (nums...
  • 产品图片制作技巧

    2013-03-13 07:48:41
    要吸引买家在您的电子商务外贸网站下订单,产品图片的质量至关重要。一张好的产品图片,往往比大段的文字描述更能吸引眼球,传递更多的信息,也更具有说服力。在这里介绍一些产品图片制作的技巧,供大家参考。 一、...
  • EWM - 包装主数据 - 包装明细 -2 https://mp.weixin.qq.com/s/hyis9kAU5GTkdVHSLvA-Ug 4. Element Group:用于简化创建包装明细得操作,在创建包装明细时只需要分配元素组而不需要手工创建分配元素。在手工...
  • 精品文档 设 计 说 明 书 精品文档 目录 一 流通环境分析 2 一 产品的流通区间 3 二产品的主要运输方式 三装卸与搬运 3 四贮存环节 3 五流通环境的气象条件 二 产品特性分析 3 三 内包装设计 4 四 缓冲包装设计 4 一...
  • 为了实现运输包装及产品包装一体化,研究了西瓜的包装结构与造型设计,探索蜂窝纸芯模块应用于相关包装产品领域的数字化设计与绿色制造方法。以虚拟设计和虚拟制造的方法进行新型包装结构产品开发,通过最终产品形态...
  • 通常来讲,有3种主要类型的产品图片:•白色背景下的产品图片•生活方式类产品图片产品使用或展示白色背景产品图片最基础且制作成本最低,不仅仅适用于产品页面,在社交媒体和广告中也很...
  • 亚马逊对要求获得第1层无挫折包装(FFP)或第2层SIOC的包装尺寸减小了。自2020年2月1日起zhi2020年8月1日止,要求获得FFP或SIOC的ASINzui小包装尺寸更新为6inX4inX0.375in(以前为9inX6inX0.375in).对于从2020年8月...
  • 松下电阻器衰减器包装方法(带状)pdf,主用从该产品表面贴装电阻系列的产品名称、型号、尺寸包装形式的、冲压载带包装
  • java包装项目 程序包是Java的基本概念,是您开始用该语言编程时偶然发现的第一件事。 作为一个初学者,您可能不太关注软件包的结构,但是随着您成为经验丰富且成熟的软件开发人员,您开始考虑可以采取哪些措施来...
  • 此文小编为你介绍LazadaLazada产品包装方面相关的内容。Lazada 产品的包装要求是什么? 一:重量限制,重量不超过(含)20kg 二:尺寸限制,三边之和不超过(含)300cm,放货时要特别注意产品尺寸是否符合要求,...
  • 外贸行业经常需要计算箱规,即在知道每箱的商品数量,以及单件产品的规格后,需要确定包装箱的长宽高,此软件及解决该问题
  • 但是,无论采用何种降低包装成本的方法,我们电商运营对包装材料的需求是一直都存在,这意味着当我们需要除了降低包装材料的采购成本,还要提高包装材料的使用效率。 在本文中,我们将了解如何: 1、降低包装成本 2...
  • 礼品包装盒制作流程

    千次阅读 2019-06-12 14:38:25
    大家好,今天为大家介绍一下,生活中常见的包装盒制作流程。包装盒分为以下几种:1.天地盖,2.书型盒3.折叠盒4.连体盒5.抽屉盒等等.  礼品盒的制作过程要比折纸盒复杂很多,折纸盒的后道加工一般是由印刷--表面...
  • 包装国际惯例

    万次阅读 2011-09-16 11:46:11
    绿色、深绿——代表酸味 黑色——代表苦味 暗黄——代表辣味 青色——代表咸味 茶褐色——代表涩味 (2)代表香气 橙色——代表柠檬香 桃色——代表天芥菜香(天芥菜花可作香水) 黄色...9.产品的习惯用色 粉红色——
  • 但是,如果我们要运送形状奇特的产品并且我们的包装设计已经过优化,那我们的确需要使用空隙填充物。 因此,包装需要在设计和使用时兼顾效率和安全,已达到持续降低包装成本的目的。最小化包装内空白空间的最佳办法...
  • 弹性卡箍零件自动化检测 与包装生产线的研制 摘要 基于labview视觉检测功能的基础,利用PC机通讯运动控制卡来实现整体自动化控制,研发一款弹性卡簧...图像处理系统主要包括图像的采集、图像特征识别、图像特征尺寸...
  • 包装常见结构设计

    2009-10-09 17:33:00
    纸箱纸盒是目前国内外包装中使用最多、最广泛的一种装演形式其原因是纸材料普遍易取、花色品种繁多、规格齐全、加工方便。另一个原因是纸箱纸盒设计便于销毁、容易回收并能保证成品质量稳定、价格合理、便于加工因而...
  • Fastrax日前发布iTrax520(iT520),一款iT500系列中尺寸最小的GPS接收模块,尺寸只有10.4 x 14.0 x 2.3 mm,非常容易应用到各种应用中,如资产跟踪,导航系统,电池供电的消费类产品等。  Fastrax iT520和当前...
  •   这些年来,真空包装机在食品、水产品、化工原料等各种领域应用非常广泛,而各种款式型号的真空包装...此外,外形尺寸差距比较大的产品尽可能选择没有真空室的外抽式真空包装机。   2、高性价比是要考虑的重要原.
  • 快递包装盒下料问题

    2021-08-10 20:24:41
    快递包装盒下料问题 ...纸箱的制造尺寸为制箱时的下料尺寸。瓦楞纸箱在制造过程中有单拼和双拼之 分,单拼即一页成型箱( 1),一般用于周长较小的纸箱;双拼也称为二页箱,有的纸箱周 长太大,不得不用两片箱坯
  • 在现代工业自动化生产中,涉及到各种各样的检查、测量和零件识别应用,例如汽车零配件尺寸检查和自动装配的完整性检查,电子装配线的元件自动定位,饮料瓶盖的印刷质量检查,产品包装上的条码和字符识别等。...
  • 由于纸浆模塑设备制品表面比较粗糙,其印刷适性与通常的纸质承印材料如胶版纸、铜版纸、箱板纸等相比有着明显的差别,而且一般纸模包装制品具有与被包装物外形相吻合的几何形状。其结构多样,凸凹变化多,而且印刷...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,719
精华内容 4,287
关键字:

产品包装尺寸图