精华内容
下载资源
问答
  • awesome-CoreML-models:Core ML的模型集合
  • SSDMobileNet_CoreML 使用基于Mobilenet的SSD的CoreML模型在iOS上进行实时对象检测。 该项目包含一个示例项目,用于在iOS上运行该模型的实时推断。 根据示例创建的CoreML文件 我使用了一些简便的方法进行对象检测...
  • Core ML是一个Apple框架,用于将机器学习模型集成到您的应用程序中。 Core ML为所有模型提供统一的表示形式。 您的应用程序使用Core ML API和用户数据在用户设备上进行预测并微调模型。 Core ML通过利用CPU,GPU和...
  • coreml-scikit-示例 带有scikit-learn的Apple CoreML示例。 这是一个有关如何将Scikit-Learn模型(在这种情况下为逻辑回归)导出到CoreML文件,将其加载回并对其进行预测的简单示例 在这个非常简单的示例中,Apple...
  • iOS-CoreML-Yolo在Apple的CoreML框架上使用Tiny YOLO v1模型实现对象检测
  • 该应用程序从Unsplash中随机获取拍摄的照片,并使用Inception V3模型利用Core ML框架对照片中的内部进行预测
  • 带有Core ML和MPSNNGraph的YOLO 这是我的博客文章的源代码。 YOLO是一个对象检测网络。... TinyYOLO-CoreML:在Core ML上运行Tiny YOLO神经网络的演示应用程序。 TinyYOLO-NNGraph:相同的演示应用程序,但是这次
  • Core ML 文档翻译

    2017-12-20 07:55:40
    Core ML 文档翻译...............Core ML 文档翻译.........
  • 自iOS 11起,苹果发布了Core ML框架,以帮助开发人员将机器学习模型集成到应用程序中。 我们以Core ML格式收集了最大数量的机器学习模型,以帮助iOS,macOS,tvOS和watchOS开发人员尝试机器学习技术。 如果您已经...
  • 标识:CoreML-源码

    2021-02-18 11:44:29
    标识:CoreML
  • Core ML format

    2021-01-08 23:57:11
    <div><p>Is there an Apple's Core ML format of U^2-Net model?</p><p>该提问来源于开源项目:NathanUA/U-2-Net</p></div>
  • Core-ML-Sample 使用Core ML框架和Swift 4的一个示例
  • I’ve been trying to convert this trained model to <code>CoreML</code> via <code>tf-coreml</code> library with no success, with below error: <code>tensorflow.python.framework.errors_impl....
  • Core ML API

    2020-03-01 19:05:52
    Core ML API Use the Core ML API directly to support custom workflows and advanced use cases. Overview In most cases, you interact only with your model's dynamically generated interface, which is cr...

    Core ML API

    Use the Core ML API directly to support custom workflows and advanced use cases.

    Overview

    In most cases, you interact only with your model's dynamically generated interface, which is created by Xcode automatically when you add a model to your Xcode project. You can use Core ML APIs directly in cases where you need to support custom workflows or advanced use cases. As an example, if you need to make predictions while asynchronously collecting input data into a custom structure, you can adopt the MLFeatureProvider protocol.

    To use the Core ML APIs directly:

    • Adopt the MLFeatureProvider protocol in a class or structure in your app.

    • Use MLModel methods with your MLFeatureProvider.

    Topics

    Machine Learning Model

    MLModel

    An encapsulation of all the details of your machine learning model.

    Downloading and Compiling a Model on the User's Device

    Distribute Core ML models to the user's device after the app is installed.

    Making Predictions with a Sequence of Inputs

    Integrate a recurrent neural network model to process sequences of inputs.

    Model Features

    MLFeatureValue

    A feature's value and its type bundled as a read-only instance.

    MLFeatureProvider

    An interface that represents a collection of values for either a model's input or its output.

    MLDictionaryFeatureProvider

    A convenience wrapper for the given dictionary of data.

    MLBatchProvider

    An interface that represents a collection of feature providers.

    MLArrayBatchProvider

    A convenience wrapper for batches of feature providers.

    Model Updates

    MLUpdateTask

    A task that updates a model with additional training data.

    Personalizing a Model with On-Device Updates

    Modify an updatable Core ML model by running an update task with labeled data.

    Customization

    Integrating Custom Layers

    Integrate custom neural network layers into your Core ML app.

    Creating a Custom Layer

    Make your own custom layer for Core ML models.

    MLCustomLayer

    An interface that defines the behavior of a custom layer in your neural network model.

    MLCustomModel

    An interface that defines the behavior of a custom model.

    Errors

    MLModelError

    The categories of model-specific errors.

    MLModelErrorDomain

    The domain for Core ML errors.

    展开全文
  • IOS CoreML demo

    2018-06-11 17:59:39
    学习CoreML的一个demo工程,CoreML可以集成多种机器学习模型类型到您的应用程序。它除了支持超多30 layer的机器学习,还支持多种标准的模型,比如: tree ensembles, SVMs, and generalized linear models。它建立于...
  • core ML学习

    2019-04-23 12:55:00
    Core ML工具是一个Python包(coremltools),托管在Python包索引(PyPI)上。 从表格中可看出,支持caffe工具。 使用与模型的第三方工具相对应的Core ML转换器转换模型。 调用转换器的convert方法并将生成的...

    Core ML工具是一个Python(coremltools),托管在Python包索引(PyPI)上。

    从表格中可看出,支持caffe工具。

    使用与模型的第三方工具相对应的Core ML转换器转换模型。 调用转换器的convert方法并将生成的模型保存到Core ML模型格式(.mlmodel)

    例如如果模型是使用Caffe创建的,请将Caffe模型(.caffemodel)传递给coremltools.converters.caffe.convert方法。

    coremltools官网文档地址https://apple.github.io/coremltools/

    Metal框架
    Metal具有3D渲染、计算、矩阵运算、图像处理

     

    转载于:https://www.cnblogs.com/wmy-ncut/p/10755729.html

    展开全文
  • CoreMLDemo-YT:核心ML GooglePhotoID演示
  • CoreML痤疮检测模型
  • CoreML模型动物园 这是转换为框架的机器学习模型的。 这些模型可以在以下操作系统之一的Apple设备上运行: iOS , macOS , tvOS和watchOS 。 回购中的所有模型: 具有预先训练的体重 主要用于推理 针对移动设备...
  • mnist-coreml:简单的卷积神经网络,使用Keras + CoreML预测WWDC '18奖学金的手写数字[已接受]
  • CoreML介绍

    千次阅读 2018-12-30 14:41:31
    CoreML介绍 将机器学习模型集成到您的应⽤用当中。 借助 Core ML,您可以将已训练好的机器学习模型,集成到⾃自⼰己的应⽤用当中。 所谓已训练模型 (trained model),指的是对一组训练数据应用了某个机器学习...

    CoreML介绍

    将机器学习模型集成到您的应⽤用当中。
    借助 Core ML,您可以将已训练好的机器学习模型,集成到⾃自⼰己的应⽤用当中。

    所谓已训练模型 (trained model),指的是对一组训练数据应用了某个机器学习算法后,所⽣成的一组结果。举个例子,通过某个地区的历史房价来训练出一个模型,那么只要指定房间有几卧几卫,就有可能对未来该房间的房价做出预测。
    Core ML 是领域特定 (domain-specific) 框架和功能的基础所在。Core ML 为 Vision 提供了图像处理的支持,为 Foundation 提供了自然语⾔处理的支持(例如NSLinguisticTagger 类), 为 GameplayKit 提供了了对学习决策树 (learned decision tree) 进行分析的支持。Core ML 本身是基于底层基本类型而建立的,包括 Accelerate、BNNS 以及 Metal Performance Shaders等。

    Core ML 针对设备的性能进⾏了优化,最大限度地减少内存占用和功耗。通过在设备上运行的严格要求,不仅保护了了用户数据隐私,⽽且当网络连接丢失的时候,还能够保证应用能正常工作和响应。

    官方文档:https://developer.apple.com/documentation/coreml?language=objc

     

    Vision

    您可以轻松地将计算机视觉学习功能放到⾃己的应⽤当中。使用计算机视觉算法可以执行各种关于图像和视频输入的任务。Vision 所支持的功能包括了人脸追踪、人脸识别、人脸特征点识别 (landmarks)、文本识别、矩形识别、条形码识别、对象追踪 以及图像配准 (image registration)。

    具体的Vision API参考

    https://developer.apple.com/documentation/vision?language=objc

     

    ⾃然语言处理

    分析自然语言文本并推断其特定于语言的元数据。Foundation 中的自然语言处理 API 使用了机器学习,从而能够通过语言和脚本辨识、词语切分(tokenization)、词形还原 (lemmatization)、词性 (part of speech) 以及命名实体识别 (named entity recognition) 来深入了解语言文本。

    具体的Natural Language API参考 

    https://developer.apple.com/documentation/naturallanguage?language=objc

     

    GameplayKit

    构建和组织您的游戏逻辑。结合常见的游戏性行为,如随机数生成,人工智能,寻路和代理行为。

    具体的介绍及API参考

    https://developer.apple.com/documentation/gameplaykit?language=objc

     

     

    展开全文
  • Conversion to Core ML

    2020-12-26 18:12:09
    ve tryed to convert this to coreml but failed so far... I tried 2 approches : * kapre / Keras -> coremltools = FAILED * Kapre / Keras -> Tensorflow -> tf-coreml = FAILED <p>Hints ...
  • 获取 Core ML 模型

    2020-03-01 09:58:41
    Getting a Core ML Model Obtain a Core ML model to use in your app. Overview Core ML supports a variety of machine learning models, including neural networks, tree ensembles, support vector machines...

    文章

    获取 Core ML 模型

    获取要在 app 中使用的 Core ML 模型。

    概览

    Core ML 支持多种机器学习模型,包括神经网络、树集成、支持向量机和广义线性模型。Core ML 要求使用 Core ML 模型格式 (文件扩展名为 .mlmodel 的模型)。

    利用 Create ML 和您自己的数据,您可以训练定制模型来完成某些任务,例如识别图像、提取文本含义或查找数字值之间的关系。Create ML主要用来创建典型的机器学习模型,支持什么模型提前查阅。使用 Create ML 训练的模型使用 Core ML 模型格式,并能直接在 app 中使用。

    Apple 还提供了多个热门的开源模型,这些模型已经是 Core ML 模型格式。您可以下载这些模型并在 app 中开始使用它们。此外,各种调研团队和大学也发布了他们的模型和训练数据,但这些模型可能不是 Core ML 模型格式。要在 app 中使用这些模型,您需要先根据“将经过训练的模型转换为 Core ML”中所述,对它们进行转换。

    Create ML

    创建要在 app 中使用的机器学习模型。

    概览

    Create ML 可以与 Swift 和 macOS Playground 等您所熟悉的工具搭配使用,在 Mac 上创建和训练自定的机器学习模型。您可以训练模型来完成一些任务,例如识别图像、提取文本含义或查找数字值之间的关系。

     

    您可以通过向模型展示训练样本来训练模型识别图案。例如,您可以通过向模型展示大量不同犬类的图像来训练模型识别犬类。在完成模型训练后,您可使用模型之前未曾见过的数据来测试模型,并评估模型完成这个任务的表现情况。如果模型表现良好,就可以使用 Core ML 将它整合到 app 中。

     

    Create ML 利用“照片”和 Siri 等 Apple 产品中内建的机器学习基础架构。这意味着,图像分类和自然语言模型会更小,训练时间所需的时间也要短很多。

    文章

    创建图像分类器模型

    训练机器学习模型来对图像进行分类。

    概览

    图像分类器是一种机器学习模型,经过训练后,能够用来识别图像。在您提供一张图像后,图像分类器会根据这个图像回复一个标签。

     

    训练图像分类器的方法是向它展示大量已标记的图像示例。例如,您可以向图像分类器展示各种大象、长颈鹿、狮子等动物的照片来训练它识别野生动物。

     

    准备数据

    首先,准备要用来训练和评估分类器的数据。从每个标签下的图像中选择 80% 的图像来创建一个训练数据集。使用其余图像创建测试数据集。确保任一指定图像均只出现在其中一个集合中。

    接着,整理磁盘上的数据,确保与其中一个 MLImageClassifier.ataSource (英文) 类型兼容。一种方法是创建两个分别名为 Training Data 和 Testing Data 的文件夹。在每个文件夹中,以标签作为名称创建子文件夹。然后,将每个数据集的图像整理到相应的子文件夹中。

     

    具体的标签字符串并不重要,只要对您有意义即可。例如,您可以使用标签 Cheetah 来表示所有猎豹图像。您不必以任何特定方式对图像文件命名或为它们添加元数据。您只需将它们放入具有正确标签的文件夹即可。

    在训练集中,每个标签至少应有 10 张图像,越多当然越好。此外,应让每个标签下的图像数量保持平衡。例如,不要 Cheetah 下包含 10 张图像,而 Elephant 下包含 1000 张图像。

    图像可以使用任意格式,只要统一类型标识符符合 public.image 即可。具体包括 JPEG 和 PNG 等常见格式。图像无需尺寸一致,也不必使用任何特定的尺寸,但最好使用至少 299x299 像素的图像。如果可以,训练所用图像应当与待预测图像使用相似的方法收集。

    提供多样化图像。例如,使用从不同角度和在不同光线条件下拍摄的动物图像。如果针对给定标签使用几乎相同的图像来训练分类器,该分类器的表现往往不如使用更为多样化的图像集训练出的分类器。

    注释

    分类器使用场景打印特征提取器来加速训练过程。这会影响适合用于训练的图像种类。有关详细信息,请参阅 MLImageClassifier.FeatureExtractorType.scenePrint(revision:) (英文)

    在 Playground 中显示 Image Classifier Builder

    数据准备就绪后,以 macOS 为目标创建新的 Xcode Playground。使用 Playground 创建 MLImageClassifierBuilder (英文) 实例并在实时视图中显示:

    // Import CreateMLUI to train the image classifier in the UI.
    // For other Create ML tasks, import CreateML instead.
    import CreateMLUI 
    
    let builder = MLImageClassifierBuilder()
    builder.showInLiveView()

    在 Xcode 中显示辅助编辑器,然后运行 Playground。这样操作后,实时视图会显示图像分类器:

     

    训练图像分类器

    将 Training Data 文件夹从访达拖到实时视图中指示的位置。完成后,训练过程就会开始,图像分类器会显示进度:

     

    在训练过程中,图像分类器会自动将训练数据拆分到训练集和验证集。它们都会影响训练,但方式各异。由于拆分是随机的,因此每次训练模型时可能会得到不同的结果。

    在训练完成时,实时视图会显示训练和验证准确性。这些数据表示经过训练的模型在对相应集合中图像进行分类方面表现如何。由于模型是使用这些图像训练的,因此通常能够准确地对这些图像进行分类。

     

    评估分类器的表现情况

    接着,使用陌生的图像对经过训练的模型进行测试,评估模型的表现情况。这时,请使用您在开始训练前创建的测试数据集。将 Test Data 文件夹拖到实时视图中,就像之前使用训练数据一样。

     

    模型会处理所有图像,并逐个做出预测。由于这是有标签的数据,因此模型可以检查自己的预测是否正确。然后,它会添加总体评估准确性作为 UI 中的最终指标。

     

    如果评估表现不够好,则可能需要使用更多数据重新训练 (例如,引入图像增强) 或更改一些其他训练配置。有关如何进行更详细模型评估的信息以及提升模型性能的策略,请参阅“提高模型准确性”。

    存储 Core ML 模型

    当模型表现足够好后,就可以存储模型以便在 app 中使用了。

    为分类器指定有意义的名称。通过在 UI 中更改名称,将默认的 ImageClassifier 更改为 AnimalClassifier。您还可以添加更多关于模型的信息,例如作者和简短描述。点按展开三角形可以显示这些元数据栏位并填写详细信息。

     

    点按“Save”(存储)。模型会以 .mlmodel 格式的文件写入“Where”(位置) 栏位中指定的目录。

    将模型添加到 App

    现在将经过训练的模型添加到现有支持 Core ML 的 app。您可以使用这个模型替换“通过 Vision 和 Core ML 对图像进行分类 (英文)”示例代码项目随附的模型。如果您这样做,样本 app 会和以前完全一样运行,唯一的不同是它会根据您定义的标签识别动物并进行分类。

    在 Xcode 中打开示例代码项目,并将模型文件拖到导航面板中。模型成为项目的一部分后,Xcode 会向您显示模型元数据以及其他信息,例如模型类。

     

    要在代码中使用新模型,只需要更改一行代码即可。项目附带的 MobileNet 模型仅在 ImageClassificationViewController 类中的一个位置进行实例化:

    let model = try VNCoreMLModel(for: MobileNet().model)

    请将这一行更改为使用新的模型类:

    let model = try VNCoreMLModel(for: AnimalClassifier().model)

    这些模型都以图像为输入并输出标签,因此可以互换。替换后,示例 app 会像之前一样对图像进行分类,不同的地方是它会使用您的模型及关联的标签。

    另一种方法:实现图像分类器制作过程自动化

    如果您在编程或机器学习方面没什么经验,可以按照以上部分所述,使用 MLImageClassifierBuilder (英文) 实例来训练有用的图像分类器。但是,如果需要用脚本编写模型训练过程,请改为使用 MLImageClassifier (英文) 实例。相关步骤基本相同:准备数据,训练模型,评估表现,并将结果存储到 Core ML 模型文件。不同之处在于所有任务以编程方式进行。例如,您不是将测试数据拖到实时视图来评估模型的表现,而是初始化 MLImageClassifier.DataSource (英文) 实例并将它提供给分类器的 evaluation(on:) (英文) 方法。

    Apple开源模型

    https://developer.apple.com/cn/machine-learning/models/

    展开全文
  • tf-coreml: TensorFlow 到 CoreML 转换器
  • Core ML学习

    2017-08-19 22:39:08
    Core ML,这是 个全新的机器学习基础框架,它 于全系 Apple 产品当中,其中包括 Siri、Camera 以及 QuickTime。Core ML 提供 惊 的 速性能,能够轻松地集成机器学习模型,从 让您仅通过 代码就构建出更具智能...
  • BetterRest:CoreML,日期
  • 实例分段CoreML 什么是实例细分? 来源: : 特征 推断模型并执行后处理yolact模型 从设备的图片库导入照片,进行推理,然后在屏幕上绘制结果 从设备的摄像头捕获每一帧,进行推理,然后在屏幕上绘制结果 从...
  • coreML 初窥

    千次阅读 2017-06-07 17:14:46
    coreML 初窥本文章主要介绍对于CoreML Foundation的简单实用,不深入涉及Machine Learn(自己对于ML知识还很浅): CoreML相关简介 例子使用讲解 CoreML相关简介2017-06-06 Apple 在WWDC2017大会上推出CoreML框架 ...
  • Cannot convert to CoreML

    2020-12-08 23:22:29
    m trying to convert it to CoreML but get errors. I think it would be very good if you could specify how your virtualenv looks like when you do this -Dan <p>The error I get: <p>tf.estimator package ...
  • iOS11 新特性-Core ML (三) Core ML 实战

    千次阅读 2017-06-12 10:36:20
    上篇中我们已经生成了一个 Core ML 模型文件:HousePricer.mlmodel,本篇将介绍如何将文件引入到

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,833
精华内容 1,133
关键字:

coreml