精华内容
下载资源
问答
  • 索性我就重新打开prompt使用清华镜像库下载,不试不知道,一试吓一跳,在使用清华镜像库后,大概10s左右就下载完了,并安装完毕了,是真的快速。 所以将pip代码分享一下。 pip install scapy -i ...

    今天用pip下载scapy这个第三方库,总共也就就1MB大小,硬是等了5,6分钟还没下完,总是1KB/S,让我真是欲哭无泪。
    索性我就重新打开prompt使用清华镜像库下载,不试不知道,一试吓一跳,在使用清华镜像库后,大概10s左右就下载完了,并安装完毕了,是真的快速。
    所以将pip代码分享一下。

    pip install scapy -i https://pypi.tuna.tsinghua.edu.cn/simple

    其中,"scapy"是我要下载的第三方库,你可以换上你想下载的第三方库的名字。

    最后附上截图:
    在这里插入图片描述

    展开全文
  • anaconda镜像不要再用清华的了!

    万次阅读 热门讨论 2019-01-09 09:39:53
    试了一晚上清华的,怎么网上可以搜出来那么多过时误人子弟的网址。...清华的anaconda镜像挂了,中科大的镜像吧  conda config –add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/  c...

    试了一晚上清华的,怎么网上可以搜出来那么多过时误人子弟的网址。。 
    正解转自: 
    http://blog.csdn.net/lijiecong/article/details/78339078

    清华的anaconda镜像挂了,用中科大的镜像吧 
    conda config –add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/ 
    conda config –set show_channel_urls yes

    加个小tip:要删除 .condarc文件 。 
    .condarc以点开头,一般表示 conda 应用程序的配置文件,在用户的根目录 
    (windows:C:\users\username\,linux:/home/username/)。但对于.condarc配置文件,是一种可选的(optional)运行期配置文件,其默认情况下是不存在的。 
    当用户第一次运行 conda config命令时,将会在用户的家目录创建该文件。

     

     

    展开全文
  • 本文整理汇总了Python中...Python models.vgg16怎么用?Python models.vgg16使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在模块torchvision.models的...

    本文整理汇总了Python中torchvision.models.vgg16方法的典型用法代码示例。如果您正苦于以下问题:Python models.vgg16方法的具体用法?Python models.vgg16怎么用?Python models.vgg16使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在模块torchvision.models的用法示例。

    在下文中一共展示了models.vgg16方法的18个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于我们的系统推荐出更棒的Python代码示例。

    示例1: __init__

    ​点赞 7

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, alignsize = 8, reddim = 32, loadweight = True, model = None, downsample = 4):

    super(crop_model_multi_scale_shared, self).__init__()

    if model == 'shufflenetv2':

    self.Feat_ext = shufflenetv2_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(812, reddim, kernel_size=1, padding=0)

    elif model == 'mobilenetv2':

    self.Feat_ext = mobilenetv2_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(448, reddim, kernel_size=1, padding=0)

    elif model == 'vgg16':

    self.Feat_ext = vgg_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(1536, reddim, kernel_size=1, padding=0)

    elif model == 'resnet50':

    self.Feat_ext = resnet50_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(3584, reddim, kernel_size=1, padding=0)

    self.downsample2 = nn.UpsamplingBilinear2d(scale_factor=1.0/2.0)

    self.upsample2 = nn.UpsamplingBilinear2d(scale_factor=2.0)

    self.RoIAlign = RoIAlignAvg(alignsize, alignsize, 1.0/2**downsample)

    self.RoDAlign = RoDAlignAvg(alignsize, alignsize, 1.0/2**downsample)

    self.FC_layers = fc_layers(reddim*2, alignsize)

    开发者ID:HuiZeng,项目名称:Grid-Anchor-based-Image-Cropping-Pytorch,代码行数:23,

    示例2: get_image_format

    ​点赞 7

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def get_image_format(framework_name, model_name):

    """Return the correct input range and shape for target framework and model"""

    special_shape = {'pytorch':{'inception_v3': (299, 299)},

    'keras': {'xception': (299, 299),

    'inception_v3':(299, 299),

    'yolo_v3': (416, 416),

    'ssd300': (300, 300)}}

    special_bound = {'keras':{'vgg16':(0, 255),

    'vgg19':(0, 255),

    'resnet50':(0, 255),

    'ssd300': (0, 255)},

    'cloud': {'aip_antiporn': (0, 255),

    'google_safesearch': (0, 255),

    'google_objectdetection': (0, 255)}}

    default_shape = (224, 224)

    default_bound = (0, 1)

    if special_shape.get(framework_name, None):

    if special_shape[framework_name].get(model_name, None):

    default_shape = special_shape[framework_name][model_name]

    if special_bound.get(framework_name, None):

    if special_bound[framework_name].get(model_name, None):

    default_bound = special_bound[framework_name][model_name]

    return {'shape': default_shape, 'bounds': default_bound}

    开发者ID:advboxes,项目名称:perceptron-benchmark,代码行数:25,

    示例3: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self):

    super(DANNet, self).__init__()

    model = models.vgg16(pretrained=True) #False

    self.features = model.features

    for param in self.features.parameters(): #NOTE: prune:True // finetune:False

    param.requires_grad = True

    self.classifier = nn.Sequential(

    nn.Dropout(),

    nn.Linear(25088, 4096),

    nn.ReLU(inplace=True),

    nn.Dropout(),

    nn.Linear(4096, 4096),

    nn.ReLU(inplace=True),

    )

    self.cls_fc = nn.Linear(4096, 31)

    开发者ID:jindongwang,项目名称:transferlearning,代码行数:19,

    示例4: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, num_classes):

    super().__init__()

    feats = list(models.vgg16(pretrained=True).features.children())

    self.feats = nn.Sequential(*feats[0:9])

    self.feat3 = nn.Sequential(*feats[10:16])

    self.feat4 = nn.Sequential(*feats[17:23])

    self.feat5 = nn.Sequential(*feats[24:30])

    for m in self.modules():

    if isinstance(m, nn.Conv2d):

    m.requires_grad = False

    self.fconn = nn.Sequential(

    nn.Conv2d(512, 4096, 7),

    nn.ReLU(inplace=True),

    nn.Dropout(),

    nn.Conv2d(4096, 4096, 1),

    nn.ReLU(inplace=True),

    nn.Dropout(),

    )

    self.score_feat3 = nn.Conv2d(256, num_classes, 1)

    self.score_feat4 = nn.Conv2d(512, num_classes, 1)

    self.score_fconn = nn.Conv2d(4096, num_classes, 1)

    开发者ID:mapleneverfade,项目名称:pytorch-semantic-segmentation,代码行数:27,

    示例5: test_untargeted_vgg16

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def test_untargeted_vgg16(image, label=None):

    import torch

    import torchvision.models as models

    from perceptron.models.classification import PyTorchModel

    mean = np.array([0.485, 0.456, 0.406]).reshape((3, 1, 1))

    std = np.array([0.229, 0.224, 0.225]).reshape((3, 1, 1))

    model_pyt = models.vgg16(pretrained=True).eval()

    if torch.cuda.is_available():

    model_pyt = model_pyt.cuda()

    model = PyTorchModel(

    model_pyt, bounds=(0, 1), num_classes=1000, preprocessing=(mean, std))

    print(np.argmax(model.predictions(image)))

    attack = Attack(model, criterion=Misclassification())

    adversarial_obj = attack(image, label, unpack=False, epsilons=10000)

    distance = adversarial_obj.distance

    adversarial = adversarial_obj.image

    return distance, adversarial

    开发者ID:advboxes,项目名称:perceptron-benchmark,代码行数:19,

    示例6: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, alignsize = 8, reddim = 32, loadweight = True, model = None, downsample = 4):

    super(crop_model_multi_scale_individual, self).__init__()

    if model == 'shufflenetv2':

    self.Feat_ext1 = shufflenetv2_base(loadweight,downsample)

    self.Feat_ext2 = shufflenetv2_base(loadweight,downsample)

    self.Feat_ext3 = shufflenetv2_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(232, reddim, kernel_size=1, padding=0)

    elif model == 'mobilenetv2':

    self.Feat_ext1 = mobilenetv2_base(loadweight,downsample)

    self.Feat_ext2 = mobilenetv2_base(loadweight,downsample)

    self.Feat_ext3 = mobilenetv2_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(96, reddim, kernel_size=1, padding=0)

    elif model == 'vgg16':

    self.Feat_ext1 = vgg_base(loadweight,downsample)

    self.Feat_ext2 = vgg_base(loadweight,downsample)

    self.Feat_ext3 = vgg_base(loadweight,downsample)

    self.DimRed = nn.Conv2d(512, reddim, kernel_size=1, padding=0)

    self.downsample2 = nn.UpsamplingBilinear2d(scale_factor=1.0/2.0)

    self.upsample2 = nn.UpsamplingBilinear2d(scale_factor=2.0)

    self.RoIAlign = RoIAlignAvg(alignsize, alignsize, 1.0/2**downsample)

    self.RoDAlign = RoDAlignAvg(alignsize, alignsize, 1.0/2**downsample)

    self.FC_layers = fc_layers(reddim*2, alignsize)

    开发者ID:lld533,项目名称:Grid-Anchor-based-Image-Cropping-Pytorch,代码行数:26,

    示例7: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, opt, pretrained=True):

    super(vgg16, self).__init__()

    self.model_path = '%s/imagenet_weights/vgg16_caffe.pth' %(opt.data_path)

    self.pretrained = pretrained

    vgg = models.vgg16()

    vgg.classifier = nn.Sequential(*list(vgg.classifier._modules.values())[:-1])

    self.fc = vgg.classifier

    self.pooling = nn.AdaptiveAvgPool2d((7,7))

    if self.pretrained:

    print("Loading pretrained weights from %s" %(self.model_path))

    state_dict = torch.load(self.model_path)

    vgg.load_state_dict({k:v for k,v in state_dict.items() if k in vgg.state_dict()})

    # not using the last maxpool layer

    self.cnn_net = nn.Sequential(*list(vgg.features._modules.values())[:-1])

    开发者ID:jiasenlu,项目名称:NeuralBabyTalk,代码行数:19,

    示例8: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, num_classes):

    super(FCN16, self).__init__()

    feats = list(models.vgg16(pretrained=True).features.children())

    self.feats = nn.Sequential(*feats[0:17])

    self.pool4 = nn.Sequential(*feats[17:24])

    self.pool5 = nn.Sequential(*feats[24:])

    self.fconn = nn.Sequential(nn.Conv2d(512, 4096, 7, padding=3),

    nn.ReLU(inplace=True),

    nn.Conv2d(4096, 4096, 1),

    nn.ReLU(inplace=True),

    nn.Conv2d(4096, num_classes, 1)

    )

    self.score_pool4 = nn.Conv2d(512, num_classes, 1)

    self.activation = nn.Sigmoid()

    开发者ID:saeedizadi,项目名称:binseg_pytoch,代码行数:18,

    示例9: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, num_classes):

    super(SegNet, self).__init__()

    modules= list(models.vgg16(pretrained=True).features.children())

    self.conv1 = nn.Sequential(*modules[0:4])

    self.conv2 = nn.Sequential(*modules[5:9])

    self.conv3 = nn.Sequential(*modules[10:16])

    self.conv4 = nn.Sequential(*modules[17:23])

    self.conv5 = nn.Sequential(*modules[24:30])

    self.dec512 = DecodeBlock(512,512,3,1,num_layers=3)

    self.dec256 = DecodeBlock(512, 256, 3, 1, num_layers=3)

    self.dec128 = DecodeBlock(256, 128, 3, 1, num_layers=3)

    self.dec64 = DecodeBlock(128, 64, 3, 1, num_layers=2)

    self.final = nn.Sequential(nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1),

    nn.Conv2d(64, 1, kernel_size=3, padding=1))

    self.activation = nn.Sigmoid()

    initialize_weights(self.dec512,self.dec256,self.dec128,self.dec64, self.final)

    开发者ID:saeedizadi,项目名称:binseg_pytoch,代码行数:25,

    示例10: vgg16_sp

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def vgg16_sp(num_classes, pretrained=True, num_maps=1024):

    model = models.vgg16(pretrained=False)

    if pretrained:

    model_path = 'models/VGG16_ImageNet.pt'

    if os.path.isfile(model_path):

    state_dict = torch.load(model_path)

    model.load_state_dict(state_dict)

    else:

    print('Please download the pretrained VGG16 into ./models')

    num_features = model.features[28].out_channels

    pooling = nn.Sequential()

    pooling.add_module('adconv', nn.Conv2d(num_features, num_maps, kernel_size=3, stride=1, padding=1, groups=2, bias=True))

    pooling.add_module('maps', nn.ReLU())

    pooling.add_module('sp', SoftProposal())

    pooling.add_module('sum', SpatialSumOverMap())

    return SPNetWSL(model, num_classes, num_maps, pooling)

    开发者ID:yeezhu,项目名称:SPN.pytorch,代码行数:19,

    示例11: decom_vgg16

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def decom_vgg16():

    # the 30th layer of features is relu of conv5_3

    if opt.caffe_pretrain:

    model = vgg16(pretrained=False)

    if not opt.load_path:

    model.load_state_dict(t.load(opt.caffe_pretrain_path))

    else:

    model = vgg16(not opt.load_path)

    features = list(model.features)[:30]

    classifier = model.classifier

    classifier = list(classifier)

    del classifier[6]

    if not opt.use_drop:

    del classifier[5]

    del classifier[2]

    classifier = nn.Sequential(*classifier)

    # freeze top4 conv

    for layer in features[:10]:

    for p in layer.parameters():

    p.requires_grad = False

    return nn.Sequential(*features), classifier

    开发者ID:FederatedAI,项目名称:FATE,代码行数:27,

    示例12: getNetwork

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def getNetwork(args):

    if (args.net_type == 'alexnet'):

    net = models.alexnet(pretrained=args.finetune)

    file_name = 'alexnet'

    elif (args.net_type == 'vggnet'):

    if(args.depth == 16):

    net = models.vgg16(pretrained=args.finetune)

    file_name = 'vgg-%s' %(args.depth)

    elif (args.net_type == 'inception'):

    net = models.inception(pretrained=args.finetune)

    file_name = 'inceptino-v3'

    elif (args.net_type == 'resnet'):

    net = resnet(args.finetune, args.depth)

    file_name = 'resnet-%s' %(args.depth)

    else:

    print('Error : Network should be either [VGGNet / ResNet]')

    sys.exit(1)

    return net, file_name

    开发者ID:meliketoy,项目名称:fine-tuning.pytorch,代码行数:21,

    示例13: select

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def select(self, model_name=None):

    """select models to be run"""

    logging.info("Run details")

    logging.info("=" * 71)

    models = [

    self.alexnet,

    self.resnet18,

    self.resnet50,

    self.vgg16,

    self.squeezenet,

    ]

    if model_name:

    self.models = [

    model for model in models for name in model_name if name == model.name

    ]

    logging.info("Selected model(s) :: ")

    for m in self.models:

    logging.info("%s ------------- Batchsize :: %s " % (m.name, m.batch))

    logging.info("=" * 71)

    开发者ID:intel,项目名称:stacks-usecase,代码行数:21,

    示例14: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, requires_grad=False):

    super(Vgg16, self).__init__()

    vgg_pretrained_features = models.vgg16(pretrained=True).features

    self.slice1 = torch.nn.Sequential()

    self.slice2 = torch.nn.Sequential()

    self.slice3 = torch.nn.Sequential()

    self.slice4 = torch.nn.Sequential()

    for x in range(4):

    self.slice1.add_module(str(x), vgg_pretrained_features[x])

    for x in range(4, 9):

    self.slice2.add_module(str(x), vgg_pretrained_features[x])

    for x in range(9, 16):

    self.slice3.add_module(str(x), vgg_pretrained_features[x])

    for x in range(16, 23):

    self.slice4.add_module(str(x), vgg_pretrained_features[x])

    if not requires_grad:

    for param in self.parameters():

    param.requires_grad = False

    开发者ID:pytorch,项目名称:examples,代码行数:20,

    示例15: main

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def main():

    # model = models.vgg19_bn(pretrained=True)

    # _, summary = weight_watcher.analyze(model, alphas=False)

    # for key, value in summary.items():

    # print('{:10s} : {:}'.format(key, value))

    _, summary = weight_watcher.analyze(models.vgg13(pretrained=True), alphas=False)

    print('vgg-13 : {:}'.format(summary['lognorm']))

    _, summary = weight_watcher.analyze(models.vgg13_bn(pretrained=True), alphas=False)

    print('vgg-13-BN : {:}'.format(summary['lognorm']))

    _, summary = weight_watcher.analyze(models.vgg16(pretrained=True), alphas=False)

    print('vgg-16 : {:}'.format(summary['lognorm']))

    _, summary = weight_watcher.analyze(models.vgg16_bn(pretrained=True), alphas=False)

    print('vgg-16-BN : {:}'.format(summary['lognorm']))

    _, summary = weight_watcher.analyze(models.vgg19(pretrained=True), alphas=False)

    print('vgg-19 : {:}'.format(summary['lognorm']))

    _, summary = weight_watcher.analyze(models.vgg19_bn(pretrained=True), alphas=False)

    print('vgg-19-BN : {:}'.format(summary['lognorm']))

    开发者ID:D-X-Y,项目名称:AutoDL-Projects,代码行数:20,

    示例16: __init__

    ​点赞 6

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def __init__(self, num_classes=12):

    super(ClassifierMMD, self).__init__()

    model_ft = models.vgg16(pretrained=True)

    mod = list(model_ft.classifier.children())

    mod.pop()

    self.classifier1 = nn.Sequential(*mod)

    self.classifier2 = nn.Sequential(

    nn.Dropout(),

    nn.Linear(4096, 1000),

    nn.ReLU(inplace=True),

    )

    self.classifier3 = nn.Sequential(

    nn.BatchNorm1d(1000,affine=True),

    nn.Dropout(),

    nn.ReLU(inplace=True),

    )

    self.last = nn.Linear(1000, num_classes)

    开发者ID:mil-tokyo,项目名称:MCD_DA,代码行数:19,

    示例17: _init_head_tail

    ​点赞 5

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def _init_head_tail(self):

    self.vgg = models.vgg16()

    # Remove fc8

    self.vgg.classifier = nn.Sequential(*list(self.vgg.classifier._modules.values())[:-1])

    # Fix the layers before conv3:

    for layer in range(10):

    for p in self.vgg.features[layer].parameters(): p.requires_grad = False

    # not using the last maxpool layer

    self._layers['head'] = nn.Sequential(*list(self.vgg.features._modules.values())[:-1])

    开发者ID:Sunarker,项目名称:Collaborative-Learning-for-Weakly-Supervised-Object-Detection,代码行数:13,

    示例18: get_model

    ​点赞 5

    # 需要导入模块: from torchvision import models [as 别名]

    # 或者: from torchvision.models import vgg16 [as 别名]

    def get_model(name, n_classes, sync_bn=False, version=None):

    model = _get_model_instance(name)

    if name in ['frrnA', 'frrnB']:

    model = model(n_classes, model_type=name[-1])

    elif name in ['fcn32s', 'fcn16s', 'fcn8s']:

    model = model(n_classes=n_classes)

    vgg16 = models.vgg16(pretrained=True)

    model.init_vgg16_params(vgg16)

    elif name == 'segnet':

    model = model(n_classes=n_classes,

    is_unpooling=True)

    vgg16 = models.vgg16(pretrained=True)

    model.init_vgg16_params(vgg16)

    elif name == 'unet':

    model = model(n_classes=n_classes,

    is_batchnorm=True,

    in_channels=3,

    is_deconv=True)

    elif name == 'pspnet':

    model = model(n_classes=n_classes, version=version)

    elif name == 'plard':

    model = model(n_classes=n_classes, version=version)

    elif name == 'icnet':

    model = model(n_classes=n_classes, with_bn=False, version=version)

    elif name == 'icnetBN':

    model = model(n_classes=n_classes, with_bn=True, version=version)

    else:

    model = model(n_classes=n_classes)

    return model

    开发者ID:zhechen,项目名称:PLARD,代码行数:39,

    注:本文中的torchvision.models.vgg16方法示例整理自Github/MSDocs等源码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。

    展开全文
  • 点击上方蓝色字体关注我哦学了一段时间的Python基础知识,最近刚开始接触数据分析的几个包,但是还没怎么学就遇到了绊脚石,我的电脑环境配置太费劲了,基本的百度配置方法在我这里都不起作用,所以这篇文章记录下...

    1c68e4eab41e5a1e631542c816367ffe.png点击上方蓝色字体关注我哦

    学了一段时间的Python基础知识,最近刚开始接触数据分析的几个包,但是还没怎么学就遇到了绊脚石86768d51d688b7559d775bf5236356f1.png,我的电脑环境配置太费劲了86768d51d688b7559d775bf5236356f1.png,基本的百度配置方法在我这里都不起作用,所以用这篇文章记录下配置过程中遇到的坑和解决办法。ede2333e59065683c3bbc5b2b212e548.png先介绍下准备学习但是还没来得及上手的几个数据包c9f63b04af0c051bc115c1e93640c39f.png,分别是numpy,pandas和matplotlib。Numpy:用来处理矩阵,一种快速、高效使用内存的多维数组,可以不通过循环,就对整个数组内的数据进行运算,效率远超listPandas:为了解决数据分析任务而创建的,含有大量的库和一些标准的数据模型Matplotlib:是Python的可视化模块,可以制作散点图、饼图、柱状图等多种统计图形(看好多人说现在都不用这个包了,不管他,先学了再说bbeee30da67cdde67c8ad6f2118c823e.png)基于以上的粗浅理解,下面介绍环境配置方法,在使用这些包之前要先配置环境,下载好这些包才能在IDLE中直接import。以下方法适用于Windows环境。百度c9f63b04af0c051bc115c1e93640c39f.png大家的经验:Win+R输入cmd进入CMD窗口下,执行python -m pip install -U pip setuptools进行升级,如下:27c66058a85729ca0b6ec61051c08fec.png大家的操作似乎都很简单,进入cmd窗口,通过升级pip就可以自动安装这些包了,然鹅,经过尝试,我的报错如下86768d51d688b7559d775bf5236356f1.pngde24dc59a624466a3bbd7aa6d9c4f6ef.png【错误原因】:要保证安装包python.exe在CMD窗口中显示的路径下(如下图),才能顺利安装80160689fd60b702c564f5e5df9bcd6a.png
    【解决方法】:
    问题找到了,python.exe不在系统默认的路径下,那就需要把python.exe所在的路径添加的path中,系统才能识别,首先在电脑中找到python.exe所在的位置(如果你很清楚它在哪那就恭喜你了b7ceb0fb597d005d6d1352f4bf8eb5c3.png),右键属性,找到位置并复制,记住是找exe所在的位置哦~19f1dd00a5a667d3139b76de448ec10d.png
    然后将该路径添加到path中,方法如下:
    我的电脑——属性——高级系统设置——环境变量——用户变量——双击path——新建——复制刚才的路径——然后再次打开cmd窗口,即可执行更新命令36c714f382c5251ee4d91c6c661bd584.png
    安装pip
    我怀着喜悦的解决了问题的心情尝试再次安装pip786302a573b5ec09bccb2278ac409708.png27c66058a85729ca0b6ec61051c08fec.png
    发现再次报错86768d51d688b7559d775bf5236356f1.png,满屏红字8a6ef5fb8135b286d2a6ab9b109b9bac.png,这次换了个错误,ReadTimeoutError,直接抓住关键字的我立马又开始百度,狗生艰难c9f63b04af0c051bc115c1e93640c39f.png(你看看这红的发黑的错误)
    066f97a6d94a8b88d797a5a399730ddc.png【错误原因】:连接超时【解决方法】:切换镜像,换镜像命令如下:临时:pip命令+ -i +镜像地址。例如:
    python -m pip install numpy –i https://mirrors.aliyun.com/pypi/simple/
    永久:在更新到最新版本pip后,pipconfig set global.index-url+国内镜像地址,例如:
    python -m pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
    附上国内镜像大全:
    阿里云 http://mirrors.aliyun.com/pypi/simple/中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/豆瓣(douban) http://pypi.douban.com/simple/清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
    终于顺利安装,如下786302a573b5ec09bccb2278ac409708.png786302a573b5ec09bccb2278ac409708.png786302a573b5ec09bccb2278ac409708.pnge11c4a42bfc0ca29d5671464e7426898.png手动安装数据包可以用python -m pip list查看目前已经安装了哪些包,我兴奋的执行了下786302a573b5ec09bccb2278ac409708.png,发现想要的数据包一个没装上60e03d666486d44b9030171a73221814.png,再次黑脸60e03d666486d44b9030171a73221814.png,只能一个个装了,安装语句为:
    python -m pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple/python -m pip install pandas -i https://pypi.tuna.tsinghua.edu.cn/simple/python -m pip install matplotlib -i https://pypi.tuna.tsinghua.edu.cn/simple/
    b7e1da0d94b43b4125b990b0db5defce.png
    但我在第一遍安装时,先装的matplotlib,又又又报错了86768d51d688b7559d775bf5236356f1.png,可以看到是在安装numpy时报错的,显示Could not find a version that satisfies the requirement pyparsing,我就先手动装上numpy,然后再安装matplotlib,这样就不会报错啦~
    93365d593bfcf2810030f9c45671cda6.pngd7816b8e29ef35b303f7d9eeccbe8163.png
    最后用python -m pip list来看看目前已经安装的包有哪些吧786302a573b5ec09bccb2278ac409708.png786302a573b5ec09bccb2278ac409708.png786302a573b5ec09bccb2278ac409708.png
    9669f1216743c75e3c5b35ccf7e372c4.png
    拍手手,终于装上了466db03aa864d177e41d39578d3cfde0.png
    顺利载入,再次拍手手!d0107ab0250693a82e11e0abbb07db74.png激动的搓手手786302a573b5ec09bccb2278ac409708.png,终于要正式进入操作阶段了,请期待下期内容哦~我棒不棒c9f63b04af0c051bc115c1e93640c39f.png,让我康康是谁还没有为我鼓掌da23a3b903878e7da7c887d2aca1f15a.png

    4b03effe7ad1195eba69829c3e9b75e9.png

    展开全文
  • anaconda镜像

    万次阅读 多人点赞 2017-12-04 21:58:40
    试了一晚上清华的,怎么...http://blog.csdn.net/lijiecong/article/details/78339078清华的anaconda镜像挂了,中科大的镜像吧 conda config –add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/ con
  • 在国内连接 Anaconda 官方源速度非常慢。官方源去安装、升级包,速度估计会抓狂,说不定还总是失败。解决方法很简单,只需要把官方镜像...添加清华源以清华源为例:添加仓库镜像:condaconfig--addchannelshttp...
  • 同学发来一个ipynb文件,告诉我装上anaconda软件打开,我从清华大学开源软件镜像网站上下载了Windows版本的anaconda3(64位),安装之后得到下图1,打开jupyter后是空白页。后来在32位电脑上装了32位的版本也是一样的...
  • 看了很多说用镜像,之前一直没明白怎么用 今天终于成功了! 以pip install opencv-python为例 超时,失败!而且是等了很久之后,失败! 用清华镜像 pip install --user -i ...
  • WARNING: Retrying (Retry(total=2, connect=None, ...用清华和豆瓣镜像源下载所需的库mpl_finance犯了个小错误 刚开始我是这样下载包的 pip install mpl_finance https://pypi.tuna.tsinghua.edu.cn/simple pyecha
  • 参考了https://blog.csdn.net/m0_37937917/article/details/81159193预装环境:1、安装了Anaconda ,可以从清华镜像下载。2、环境安装了java,版本要7以及更高版本在前面的环境前提下开始下载安装pyspark下载 Apache...
  • 在国内连接 Anaconda 官方源速度非常慢。官方源去安装、升级包,速度估计会抓狂,说不定还总是失败。解决方法很简单,只需要把官方镜像...添加清华源以清华源为例:添加仓库镜像:condaconfig--addchannelshttp...
  • 《数据结构(面向对象方法与C++描述)》(第二版),殷人昆等,清华大学出版社 带星号的一般不会考 重点关注线性表、树、图、排序算法(时间/空间)、AVL树、B树 视频: 数据结构与算法 西北大学 - 数据结构 ...
  • 1.Anaconda下载Anaconda Linux版本下载地址清华镜像源2.Anaconda安装安装代码bashAnaconda3-5.3.1-Linux-x86_64.sh安装过程注意事项:首词bash也需要输入,无论是否的Bash shell。安装过程中,看到提示“In order ...
  • 主要是通过Anaconda环境下配置Pytorch这篇主要是在Anaconda下安装无CUDA版本的Pytorch,由于后来清华镜像源下线之后,Anaconda下安装似乎是非常缓慢,所以还是建议直接PIP安装一、安装Anaconda1 进入2 安装比较...
  • 2020.12.19怎么安装Numpy

    2020-12-19 16:16:58
    直接使用清华镜像:pip3 install numpy scipy matplotlib -i https://pypi.tuna.tsinghua.edu.cn/simple 之后查看有没有Numpy的存在:pip --version 直接Windows中的cmd命令就好了!!
  • 我就是我啦,请叫我F哥,毕业于清华大学,在互联网和金融行业奋斗多年,别的优点没有,就是善于学习和总结。 希望能够把之前用到的,未来学到的知识和技巧总结起来,分享给大家。 读书破万卷,下笔如有神!关注我...
  • 怎么用? 你可以像我一样直接使用静态托管形式,如果你需要一个后台系统方便管理,可以参考下面的第二第三种解决方案: 方法1. 使用静态托管 最简单快速上线自己的导航网站,你可以直接下载本项目修改内容既可部署...
  • 类别侧边栏的实现后,需要为每一个类别的元素都添加一个id,通过id来获取数据库中的数据,Ajax获取数据并且刷新页面的信息。采用分页技术,防止数据过多的时候,显示在同一个页面,给用户带来不好的体验,分页支持...
  • 教你怎么用python做一个自己的能窃取摄像头照片python基础教程的软件。 首先我们要先去官网下载python,3.5版本以上的都可以。 然后安装库opencv-python,安装方式为打c#教程开终端输入命令行。 可以在使用pip的时候...
  • 使 语 言 [MASK] [MASK] 来 [MASK] [MASK] 下 一 个 词 的 [MASK] [MASK] [MASK] 。 中文模型下载 本目录中主要包含base模型,故我们不在模型简称中标注base字样。对于其他大小的模型会标注对应的标记(例如...
  • 首先为什么要写这篇,就是直接按照官网的命令下载,只有几十kb的下载速度,论坛里找到清华镜像源方式也没什么清华镜像源是没有我的这个个版本吗,浪费时间就是浪费生命啊!!!所以自己弄了个稍微快点的。(不...
  • conda清华怎么也弄不出来,好像是main还是free哪个包出问题了#一开始以为是配了ss,ip有问题,ping也ping不通,学到了,ping域名不能加http这些#换了中科大源解决了,底下安装pytorch还是可以用清华镜像conda ...
  • 华为云安装个mysql就出这个报错 https://www.cnblogs.com/liptom/p/12155870.html... 换清华源蟹蟹 华为云竟然的国外的镜像源 隔壁友商人家就知道给改个正常人镜像怎么到它这儿就这么坑人呢。。。。 ...
  • 对于显卡太差的电脑,也就...官网速度太慢,还是清华镜像站的快 https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/?C=M&O=A 下载完后,安装即可,怎么安装可以百度下 1.2 下载pycharm社区版 官网速度还行 ...
  • python之小白01-01

    2020-02-04 16:34:03
    1.python的工具库安装 ...明明知道是网络的原因但不知道怎么去解决,其实自己是可以给定网址下载的,如清华镜像或者豆瓣。如:pip install 库名 -i http://pypi.douban.com/simple/ --trusted-host pyp...
  • 终于把anaconda、tensorflow和pycharm安装和好了!一把心酸泪啊!其实回顾过程也很简单,只是作为一个计算机小白,跟着网上教程学习的时候就很机械,也没有...前前后后安装卸载了3 4 次,用清华镜像的还比较快,但...
  • geopands安装

    2020-04-09 01:27:36
    geopands安装 直接安装不成功,遇到各种问题,最后终于成功了,哭泣。 安装方法 ...2.4个文件安装成功后,用清华镜像安装 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple geopandas 3....
  • 后来看见有些博客说用清华镜像设置--add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/,然后conda install pytorch torchvision 但是仍然无法下载成功,还是一直失败 后来终于发现了一个...
  • 前段时间RStudio的时候突然发现不知道怎么回事不能通过install.packages()成功的下载报了,已经把镜像源换成了清华镜像源,但是总是显示无法打开URL: 解决办法 正好急用,改了其他源也基本是一样的情况,不...
  • 1:替换Ubuntu的ppa源,使用清华镜像源,更新软件速度更快。 怎么替换不说了,需要注意的是去官网复制地址: https://mirrors.tuna.tsinghua.edu.cn/help/ubuntu/。因为你进去了就知道,不同的ubuntu版本,地址可能...

空空如也

空空如也

1 2
收藏数 40
精华内容 16
关键字:

清华镜像怎么用