精华内容
下载资源
问答
  • RasaLit 有助于查看Rasa NLU组件的有用查看者的集合。 这些视图中的某些视图是使用,因此是名称中的“眨眼”。 欢迎反馈。 有助于 您可以通过多种方式为该项目做出贡献。 您可以建议新功能。...
  • 可视化分析和诊断工具,有助于机器学习模型的选择。 什么是黄砖? Yellowbrick是一套称为“ Visualizers”的视觉诊断工具,可扩展scikit-learn API以允许人工操纵模型选择过程。 简而言之,Yellowbrick按照scikit-...
  • Manifold是用于机器学习的与模型无关的视觉调试工具。 考虑到ML算法固有的不透明性,了解ML模型的性能和行为是一个不容易的过程。 性能摘要统计信息(如AUC,RMSE和其他统计信息)对于识别模型出了什么问题或如何...
  • 该项目包含一个干净优美的图形用户界面(GUI),该界面通过使用不同的Python库与8种机器学习模型和数据可视化工具进行交互。 在Rutgers,我们了解到Python是一种很棒的通用语言,它为所有专业的开发人员提供了极大的...
  • 前不久,JetBrains团队发布了Datalore,这是一款基于云的web应用程序,用于构建机器学习模型并在Python中创建丰富的可视化。最新的测试版本旨在简化构建机器学习模型的流程,并帮助开发人员进行数据分析。由于...

    前不久,JetBrains团队发布了Datalore,这是一款基于云的web应用程序,用于构建机器学习模型并在Python中创建丰富的可视化。

    Datalore:用于机器学习可视化的新Web方案!

    最新的测试版本旨在简化构建机器学习模型的流程,并帮助开发人员进行数据分析。由于Datalore的智能编码辅助功能,丰富的增量计算和内置工具,对于数据科学家而言,处理复杂数据变得比以往任何时候都容易。机器学习是关于Python的,Datalore也不例外。

    Datalore

    Datalore提供了许多工具,尽可能提高机器学习生产力。易于使用的代码编辑器具有智能代码完成,检查,快速修复和导航功能。它可以检查程序员的工作,并利用这些自动化流程加速代码写入过程。

    基本上,一旦程序员点击了一个特定意图,Datalore会自动上传、训练、测试、分割数据集,进行图形设计甚至生成新的代码。

    Datalore:用于机器学习可视化的新Web方案!

    这个新工具还可以让程序员更轻松地了解机器学习模型如何随着多次编辑而发生变化。由于其增量式计算,如果将一些变量或参数更改为模型,则可以预测会发生什么。屏幕右侧的输出始终反映最新结果,便于实时检查。

    Datalore配备了几乎所有的Python机器学习工具,包括numpy,pandas和sklearn内置库。同时,Datalore还提供了两个高级内置库——基于ggplot的R实现:datalore.plot和一个可以交互式将图片添加到datalore.geo_maps分析中的库。

    Datalore:用于机器学习可视化的新Web方案!

    开发人员可以根据模型的计算需求选择实例,实例从中等(4GB RAM)到超大(61 GB RAM)规模不等,如果确实需要增加可用计算能力,JetBrains也提供额外选项。

    此外,Datalore还附带了基本内置数据集和文件管理器。由于自动保存功能,不会丢失任何数据,历史文件可确保永远不会丢失重要的工作文件。程序员还可以实时远程访问工作簿和代码编辑器,添加代码并撰写评论。

    如果有兴趣试用Datalore,需要注册JetBrains帐户。不过,他们也有面向学生和创业公司的折扣版本以及开源项目许可证。目前,Datalore仍在开发中,因此所有反馈都可以通过Datalore论坛进行。

    展开全文
  • 文 /George Soloupis本教程的目标:了解什么是音高 (Pitch) 以及历史上机器学习如何检测歌曲中的音高对歌曲数据以及执行模型的结果进行可视化编写通过手机麦克风收集声音的代码在 Android 应用程序内部部署 ML 模型...
    a45966ad698f88820cab4d798b219bb5.png

    文 / George Soloupis 

    本教程的目标:
    • 了解什么是音高 (Pitch) 以及历史上机器学习如何检测歌曲中的音高
    • 对歌曲数据以及执行模型的结果进行可视化
    • 编写通过手机麦克风收集声音的代码 
    • 在 Android 应用程序内部部署 ML 模型
    • 对歌曲的数据进行转换并使用 SPICE 模型进行推断
    • 在 Android 手机屏幕上呈现最终结果

    介绍

    音高是声音的一种感知属性,可以按相应的频率对其进行排序。换句话说,音高在音乐旋律中是用来判断声音听起来“高”和“低”的一种属性。音高是音调的主要听觉属性之一,其余为音长 (Duration),音强 (Loudness),以及音色 (Timbre)。音高通过频率进行量化,并以赫兹 (Hz) 为单位进行测量,其中 1Hz 表示每秒一个周期。

    音高检测 (Pitch detection) 一个有趣的挑战。历史上,对音高和音高感知的研究一直是心理声学的核心问题,并且在音频表征的形成与测试理论、 信号处理算法 (Signal-Processing Algorithms) 以及听觉系统中的感知等方面起到重要作用。研究人员为此开发并应用了许多技术 ,还努力将相近频率的背景噪声与背景音乐进行分离。

    • 技术
      https://www.cs.uregina.ca/Research/Techreports/2003-06.pdf

    今天,我们可以通过机器学习来实现这一目标,更具体地说,可以使用 SPICE 模型。这是一个经过预训练的模型,可以识别混合录制的音频中的基本音高(包括噪音和背景音乐),您可以在 TensorFlow Hub 获取 SPICE 模型,包括适用于 Web 端的 TensorFlow.js 以及适用于移动端的 TensorFlow Lite

    • TensorFlow Hub

      https://tfhub.dev/

    • TensorFlow.jshttps://tfhub.dev/google/tfjs-model/spice/1/default/1

    • TensorFlow Litehttps://tfhub.dev/google/lite-model/spice/1

    开始

    音频以单声道 16khz 采样率记录并保存为 .wav 格式。让我们用一个具有该格式的简单音频文件为例。如果使用对数频率坐标图(以使歌声更清晰可见),加载它并可视化输出,我们将获得一个频谱图,该频谱图显示随时间变化的频率:

    a9356c064dac01f18248d203955b8ef6.png
    • 音频文件https://storage.googleapis.com/download.tensorflow.org/data/c-scale-metronome.wav

    在执行带有歌曲数据的模型后,我们将打印模型的输出。蓝色表示模型预测的音高值,橙色表示这些音高值的置信度:

    14736ef7f94d128d7dacc881625dbd61.png

    如果仅保留置信度大于 90% 的结果,并将其与灰度图重叠,我们将获得下图:

    9277936ebda9d9b046767d09893fadcd.png

    在所有长度的歌曲上准确性都很高!!

    需要指出的是,虽然对于上述示例,基于频谱图的启发式音高提取方法可能也起作用。但是通常情况下,基于机器学习的模型会优于手工提取的信号处理方法,特别是当音频中存在背景噪声和背景音乐时。关于 SPICE 与 SWIPE(基于频谱图的算法)的比较,请参见此文。

    若在 Android 应用程序内部运行 SPICE 模型,必须使用麦克风收集声音。首先,我们设置变量:

    private val AUDIO_SOURCE = MediaRecorder.AudioSource.VOICE_RECOGNITION
    private val SAMPLE_RATE = 16000
    private val CHANNEL_MASK = AudioFormat.CHANNEL_IN_MONO
    private val ENCODING = AudioFormat.ENCODING_PCM_16BIT
    private val BUFFER_SIZE = AudioRecord.getMinBufferSize(SAMPLE_RATE, CHANNEL_MASK, ENCODING)
    private val AUDIO_FORMAT =
    AudioFormat.Builder().setEncoding(ENCODING)
    .setSampleRate(SAMPLE_RATE)
    .setChannelMask(CHANNEL_MASK)
    .build()

    然后,选择 MediaRecorder.AudioSource.VOICE_RECOGNITION 以将麦克风声源导入至语音识别并应用噪声消除。音频格式是 16位,单声道,16KHz 采样率的理想格式。最后,我们开始录音进程:

    /**
    * Start the recording process.
    */

    mRecorder = AudioRecord.Builder().setAudioSource(AUDIO_SOURCE)
    .setAudioFormat(AUDIO_FORMAT)
    .setBufferSizeInBytes(BUFFER_SIZE)
    .build()

    mRecorder?.startRecording()

    停止录音进程 mRecorder.stopRecording() ,随后我们从录音机流中读取音频:

    private val readAudio = Runnable {
    var readBytes: Int
    buffer = ShortArray(BUFFER_SIZE)
    while (mRecording) {
    readBytes = mRecorder!!.read(buffer, 0, BUFFER_SIZE)

    //Higher volume of microphone
    //https://stackoverflow.com/questions/25441166/how-to-adjust-microphone-sensitivity-while-recording-audio-in-android
    if (readBytes > 0) {
    for (i in 0 until readBytes) {
    buffer[i] = Math.min(
    (buffer[i] * 6.7).toInt(),
    Short.MAX_VALUE.toInt()
    ).toShort()
    }
    }
    if (readBytes != AudioRecord.ERROR_INVALID_OPERATION) {
    for (s in buffer) {

    // Add all values to arraylist
    bufferForInference.add(s)

    writeShort(mPcmStream, s)
    }
    }
    }
    }

    注意此处的乘法 buffer[i] * 6.7。这个参数用于控制麦克风增益并提高灵敏度(您可以使用其他值代替 6.7 来满足需要)!

    在此类内,还有一个将字节数组转换为 .wav 文件的函数。该文件存储在手机内部存储器的 Pitch Detector 文件夹中,可用于与原始版本对比验证移动端模型输出的准确性。

    • 原始版本https://colab.sandbox.google.com/github/tensorflow/hub/blob/master/examples/colab/spice.ipynb

    部署 SPICE 模型的第一步是复制位于 Assets 文件夹中的 .tflite 文件。我们将这些依赖包含在 app build.gradle 文件中:

    implementation 'org.tensorflow:tensorflow-lite:0.0.0-nightly'
    implementation 'org.tensorflow:tensorflow-lite-gpu:0.0.0-nightly'
    implementation 'org.tensorflow:tensorflow-lite-select-tf-ops:0.0.0-nightly'
    • .tflite 文件https://tfhub.dev/google/lite-model/spice/1

    最后一个依赖项含有额外的算子——这是该项目不可或缺的依赖项,但会显著增大最终 .apk 文件的体积,因为该模型使用了一些在第一个 tflite 依赖项中没有的算子。如需进一步了解,您可以阅读此文

    • 此文
      https://tensorflow.google.cn/lite/guide/ops_select#android_aar

    初始化解释器,从文件夹加载模型文件:

    // load tflite file from assets folder
    @Throws(IOException::class)
    private fun loadModelFile(context: Context, modelFile: String): MappedByteBuffer {
    val fileDescriptor = context.assets.openFd(modelFile)
    val inputStream = FileInputStream(fileDescriptor.fileDescriptor)
    val fileChannel = inputStream.channel
    val startOffset = fileDescriptor.startOffset
    val declaredLength = fileDescriptor.declaredLength
    val retFile = fileChannel.map(FileChannel.MapMode.READ_ONLY, startOffset, declaredLength)
    fileDescriptor.close()
    return retFile
    }

    @Throws(IOException::class)
    private fun getInterpreter(
    context: Context,
    modelName: String,
    useGpu: Boolean
    )
    : Interpreter {
    val tfliteOptions = Interpreter.Options()
    if (useGpu) {
    gpuDelegate = GpuDelegate()
    tfliteOptions.addDelegate(gpuDelegate)
    }
    tfliteOptions.setNumThreads(numberThreads)
    return Interpreter(loadModelFile(context, modelName), tfliteOptions)
    }

    我们准备好了,使用音频流进行推理!

    音频流采用 ArrayList 格式。但是要将其输入至模型,我们必须将其转换为 float 值并正则化到 -1 到 1 的范围内。为此,我们将每个值除以 MAX_ABS_INT16 = 32768然后使用解释器执行推理:

    fun execute(floatsInput: FloatArray): ArrayList {
    predictTime = System.currentTimeMillis()val inputSize = floatsInput.size // ~2 seconds of soundvar outputSize = 0when (inputSize) {// 16.000 * 2 seconds recording32000 -> outputSize = ceil(inputSize / 512.0).toInt()else -> outputSize = (ceil(inputSize / 512.0) + 1).toInt()
    }val inputValues = floatsInput//FloatArray(inputSize)val inputs = arrayOf(inputValues)val outputs = HashMap<Int, Any>()val pitches = FloatArray(outputSize)val uncertainties = FloatArray(outputSize)
    outputs[0] = pitches
    outputs[1] = uncertaintiestry {
    interpreter.runForMultipleInputsOutputs(inputs, outputs)
    } catch (e: Exception) {
    Log.e("EXCEPTION", e.toString())
    }
    }
    当我们获得结果后,我们接下来要做的是:
    • 筛选输出置信度超过 90% 的结果
    • 将绝对音高转换为赫兹 (Hz)
    • 计算唱歌期间的偏移量

    使用一些启发式算法尝试预测并输出最可能的演唱乐谱。

    上述步骤中,计算出理想的偏移量是重要的一步,因为通常人们哼唱的旋律与可以记谱的绝对音高值之间存在偏移。为此,我们还需要知道歌曲的速度(这样才能确定采用的音符长度,比如八分音符)以及开始量化产生音符的时间偏移量。为简单起见,我们将尝试使用不同的速度和时间偏移并测量量化误差,最后采用该误差最小的组合。您可以在 PitchModelExecutor.kt 的源代码中继续深入了解。

    • PitchModelExecutor.kt 的源代码

      https://github.com/farmaker47/Pitch_Estimator/blob/master/app/src/main/java/com/george/pitch_estimator/PitchModelExecutor.kt

    通过上述过程,我们获得了含有音符字符串的 ArrayList,例如 [A2,F2,G#2,C3],这些结果显示在屏幕上。

    TensorFlow Hub 的 SPICE 模型示例页面有一个出色的可视化工具,可以在静态的五线谱上显示不断流入的音符。因此,是时候在我们的移动应用程序去中复制此实时效果了! 

    • 可视化工具
      https://tfhub.dev/google/lite-model/spice/1

    Android webview 用于处理一些自定义 html 代码。我们将此代码加载到绑定适配器中:

    // this binding adapter helps load custom html from assets folder
    @BindingAdapter("htmlToScreen")
    fun bindTextViewHtml(webView: WebView, htmlValue: String) {

    webView.settings.javaScriptEnabled = true
    webView.loadDataWithBaseURL("fake://not/needed", htmlValue, "text/html", "UTF-8", "")
    }

    您可以在 这个 GitHub Gist 找到提供给 Webview 的 html 源代码!

    • GitHub Gisthttps://gist.github.com/farmaker47/8e3b6a5af795f32459d35d2198f07d1c

    当屏幕上显示如 [A2,F2] 这样的文字音符时,我们执行:

    // Observe notes as they come out of model and update webview respectively
    viewModel.noteValuesToDisplay.observe(viewLifecycleOwner,
    androidx.lifecycle.Observer { list ->
    if (list.size > 0) {
    var i = 0
    val handler = Handler()
    handler.post(object : Runnable {
    override fun run() {
    when (list[i]) {
    "C2" -> binding.webView.loadUrl("javascript:myMove('125')")
    "C#2" -> binding.webView.loadUrl("javascript:myMoveSharp('125')")
    "D2" -> binding.webView.loadUrl("javascript:myMove('130')")
    "D#2" -> binding.webView.loadUrl("javascript:myMoveSharp('130')")
    "E2" -> binding.webView.loadUrl("javascript:myMove('135')")
    "F2" -> binding.webView.loadUrl("javascript:myMove('140')")
    "F#2" -> binding.webView.loadUrl("javascript:myMoveSharp('140')")
    "G2" -> binding.webView.loadUrl("javascript:myMove('145')")
    "G#2" -> binding.webView.loadUrl("javascript:myMoveSharp('145')")
    "A2" -> binding.webView.loadUrl("javascript:myMove('150')")
    "A#2" -> binding.webView.loadUrl("javascript:myMoveSharp('150')")
    "B2" -> binding.webView.loadUrl("javascript:myMove('155')")
    ...........................
    }
    i++
    if (i < list.size) {
    handler.postDelayed(this, 555L)
    }
    }
    })
    }
    })

    在这里,我们每两秒钟观察一次音符变化,对于列表中的每个音符,我们执行 javascript 函数。myMove 函数内部的值是注释的垂直偏移量。

    您可以在下面观看此应用程序的使用演示视频:

    此项目的 GitHub 地址 (https//github.com/farmaker47/Pitch_Estimator)

    此项目使用 Kotlin 语言,并且包括:
    1. 使用 Webview 和自定义 HTML 加载。
    2. 使用 TensorFlow 的 .tflite 模型文件:
    3. 数据绑定
    4. MVVM 模式下的协程
    5. Koin DI

    改进计划

    在应用程序的 build.gradle 文件中,我们添加了特殊算子的依赖项:

    implementation ‘org.tensorflow:tensorflow-lite-select-tf-ops:0.0.0-nightly’

    此依赖项导致最终的 .apk 文件体积膨胀。我们计划通过仅选择模型所需的算子,以此减少最终 .apk 的大小。

    通过改进算法,我们将能够查看全音符,二分音符,休止符和其他音符。

    了解更多

    至此,本教程结束。希望您喜欢阅读本文,并借助 TensorFlow Lite 将学到的知识应用到现实场景中。访问 TensorFlow Hub (https://tensorflow.google.cn/hub) 可获得种类繁多的模型文件!如需了解更多关于 TFLite 的模型文件、学习教程、最佳实践,请访问:

    • https//github.com/ml-gde/e2e-tflite-tutorials

    • https://github.com/margaretmz/awesome-tflite

    感谢 Sayak Paul,Le Viet Gia Khanh 和 Luis Gustavo Martins 。

    — 推荐阅读 —

    43ebd65fec71b5f1ff3ee52b447cc979.png

    6fe29190962117e9894d5b04865fb37b.png

    cac026e099490852a0a7477fa3cfbe34.png

    53bdcb6d0cc0864b74e1990994213500.png
    展开全文
  • 理解和可视化机器学习中的数据迭代摘要绪论背景及相关工作理解数据迭代为什么要迭代数据数据迭代常用方法 摘要 成功的机器学习(ML)应用程序需要对建模和底层数据进行迭代。虽然先前的ML可视化工具主要集中在建模上...

    论文地址: Understanding and Visualizing Data Iteration in Machine Learning

    概览

    在这里插入图片描述

    绪论

    在这里插入图片描述
    一个传统的机器学习过程包括模型迭代和数据迭代,ML中有句俗语:垃圾输入,垃圾输出,说明了数据对于模型的重要性,机器学习研究人员经常通过迭代数据来提高模型性能,本文的研究主要集中在数据迭代上。

    背景及相关工作

    在本文中,我们将数据探索可视化技术扩展到随着模型开发时间的变化而变化的机器学习数据集,包括一种新的可视化方法,用于显示包含模型性能和支持数据版本比较的特征分布。

    理解数据迭代

    为什么要迭代数据

    • 数据引导建模
    • 数据提高性能
    • 世界在变,数据也在变

    数据迭代常用方法

    • Add
      • 添加采样实例
      • 添加特定实例
      • 添加合成实例
      • 添加标签
    • Remove
      • 移除实例
    • Modify
      • 修改特征、标签

    数据迭代的挑战

    • 跟踪试验和迭代历史
    • 何时"解冻"数据版本
    • 何时停止收集数据
    • 手动故障案例分析
    • 创建数据黑名单

    可视化数据迭代:动机和任务

    动机:用交互式可视化来了解数据演化如何影响模型性能
    任务

    • 跟踪和追溯数据版本上的数据迭代和模型度量
    • 属性模型度量更改为数据迭代
    • 通过训练、测试分割,性能(例如,正确的v.错误的预测)和数据版本(C2、C3、C5)来比较特征分布
    • 了解数据版本对模型的敏感性

    CHAMELEON: 不断变化数据的可视化分析

    在这里插入图片描述

    • 数据版本时间线:随时间变化的数据迭代
    • 特征视图:可视化演化分布
      在这里插入图片描述
    • 侧栏:可视化演化实例预测
      在这里插入图片描述
      A. 聚合嵌入:通过数据降维输出的离散化摘要图显示主数据版本,此图为用户提供了数据集的概述,对于发现类似实例的潜在集群非常有用
      B. 预测变化矩阵:显示了两个版本中存在的实例子集,并通过它们的预测正确性和版本对它们进行了划分
      C. 灵敏度直方图:显示了数据实例对所选版本范围内版本的预测敏感度
      在这里插入图片描述

    未来数据迭代工具的商机

    • 数据和模型迭代的接口
    • 帮助实验性切换的数据迭代工具
    • 数据作为跨用户专业技能的共享连接
    • 从数据编程中可视化概率标签
    • 限制:其他数据类型的可视化
    展开全文
  • Netron 是神经网络、深度学习与机器学习模型可视化工具。 1.在网页端直接使用(适合使用模型结构脚本文件) Step1.输入网址:https://lutzroeder.github.io/netron/ 网页加载... 完成后见到如下界面: Step2....

    Netron 是神经网络、深度学习与机器学习模型的可视化工具。

    1.在网页端直接使用(适合使用模型结构脚本文件)

    Step1.输入网址:https://lutzroeder.github.io/netron/

    网页加载...

    完成后见到如下界面:

    Step2.点击 Open Model,上传模型结构脚本文件

    即可见到清晰的网络结构图,点击可查看详细参数信息。

    点击左上角菜单,可以输出png图片格式的网络结构图文件。

    2.下载程序,离线使用

    适用于加载较大的模型文件,操作与网页版相同。

    各个操作系统(支持Ubantu,Mac,Windows)对应的安装方法见github项目主页的README.

    Github 项目 - https://github.com/lutzroeder/Netron
    作者:lutzroeder
    官网:https://www.lutzroeder.com/ai/

     

    Netron 支持的框架和文件类型

    ONNX (.onnx, .pb, .pbtxt),
    Keras (.h5, .keras),
    Core ML (.mlmodel),
    Caffe (.caffemodel, .prototxt),
    Caffe2 (predict_net.pb),
    Darknet (.cfg),
    MXNet (.model, -symbol.json),
    Barracuda (.nn), ncnn (.param),
    Tengine (.tmfile),
    TNN (.tnnproto),
    UFF (.uff) ,
    TensorFlow Lite (.tflite).

     

    正在开发中,相应的支持可能不太稳定。

    TorchScript (.pt, .pth),
    PyTorch (.pt, .pth),
    Torch (.t7),
    Arm NN (.armnn),
    BigDL (.bigdl, .model),
    Chainer (.npz, .h5),
    CNTK (.model, .cntk),
    Deeplearning4j (.zip),
    MediaPipe (.pbtxt),
    ML.NET (.zip),
    MNN (.mnn),
    PaddlePaddle (.zip, _model_),
    OpenVINO (.xml),
    scikit-learn (.pkl),
    TensorFlow.js (model.json, .pb),
    TensorFlow (.pb, .meta, .pbtxt, .ckpt, .index).

    展开全文
  • 最近在搞一些关于机器学习的小东西,其中有一部分就是关于决策树的。过程中遇到了一些小问题,现记录并与大家分享。 一、问题描述:使用西瓜数据集构建决策树,并将构建的决策树进行可视化操作。 二、问题简析:首先...
  • 前言:本人也是刚刚入门机器学习,就像入门很多语言一样,第一个程序总是Hello World 。机器学习也不然,入门机器学习的第一个程序就是感知机啦。感知机是二类线性分类模型,输出的值为{+1, -1}两种类型,感知机是...
  • 全文共9517字,预计学习时长28分钟来源:Pexels今年,各种机器学习的应用程序纷纷涌现。其中OpenAI GPT-2能够创作出逻辑清晰且激情盎然的文章,远远超出了人们对当前语言模型...
  • Streamlit是一个开放源代码的Python库,可轻松构建用于机器学习和数据科学的精美自定义Web应用程序。 要使用它,只需导入它,然后编写几行代码,然后使用运行脚本即可。Streamlit监视每次保存时的更改,并在编码时...
  • Weaviate是一个云原生的实时矢量搜索引擎(又名神经搜索引擎或深度搜索引擎),可让您扩展机器学习模型。 有针对特定用例的扩展,例如语义搜索,用于将Weaviate集成到您选择的任何应用程序中的插件以及用于可视化...
  • 是一个很棒的新工具,它使工程师能够围绕其数据,机器学习模型以及几乎所有内容快速构建高度互动的Web应用程序。 本教程是使用Airbnb NYC列表数据深入研究Streamlit的。 即将推出更多内容! :smiling_face_with_...
  • 近年来随着深度学习和神经网络技术的发展,机器翻译也取得了长足的进步。神经网络结构越来越复杂,但我们始终无法解释内部发生了什么,“黑箱问题”一直困扰着我们。我们不清楚程序在翻译过程中如何进行决策,所以当...
  • 概率图模型结合了概率论与图论的知识,提供了一种简单的可视化概率模型的方法,在人工智能、机器学习和计算机视觉等领域有着广阔的应用前景。《概率图模型基于R语言》电子书,学习使用概率图模型,理解计算机如何...
  • 机器学习实验-线性回归模型1 实验原理与代码1.1初始化和基本功能1.2 数据可视化1.3 梯度下降1.4 可视化J1.5 总函数ex.12 实验结果2.1 初始化单位矩阵2.2 绘制数据散点图2.3 梯度下降示意图2.4 theta变化三维图 ...
  • 在众多机器学习库中,Tensorflow是目前唯一自带可视化工具的库,这也是Tensorflow的一个优点。学会使用TensorBoard,将可以帮助我们构建复杂模型。 打开方式 1.在训练的过程中,打开终端,cd到文件目录下 2.输入...
  • 在本教程中,我们将进行数据探索和分析,然后训练和评估机器学习模型,最后,我们将免费使用和在云上部署我们的应用程序。 该存储库包含: 数据探索 观察数据集统计信息并可视化数据: 音频文件波形 音频文件Mel...
  • 嵌入在机器学习中普遍存在,出现在推荐系统,NLP和许多其他应用程序中。实际上,在TensorFlow的上下文中,将张量(或张量片)视为空间点是很自然的,因此几乎任何TensorFlow系统自然会产生各种嵌入。 TensorBoard...
  • Traingenerator提供了用于预处理,模型设置,训练和可视化的多个选项(使用Tensorboard或comet.ml)。 它将导出到.py,Jupyter Notebook或 。 完美启动下一个机器学习项目的工具! 有关更新,请,如果您喜欢这个...
  • 微软公布了几项新的人工智能服务和更新,以简化在Azure平台上大规模构建,培训和部署AI应用程序的过程,包括新的自动化机器学习增强功能和直观的用户界面。 新的可视化ML界面,为开发人员提供了通过拖放创建和部署...
  • 大多数机器学习模型的高维性使得初学者很难形象。 本笔记本的目的是提供一个更具体的示例,以使人们对梯度优化器的工作方式以及每个行为都具有更强的直觉。 希望用户可以从此笔记本中获得更多的见解。 使用笔记本...
  • ▌什么是 Jupyter Notebook? Jupyter Notebook 是一...这些特性使其成为一款执行端到端数据科学工作流程的便捷工具 ,可以用于数据清理,统计建模,构建和训练机器学习模型可视化数据以及许多其他用途。 当你...
  • 微软提到,可视化机器学习接口,可以让不熟悉程序开发的数据科学家,以更直观的方式进行操作,而即便是机器学习专家,这个工具也能帮助他们快速产生系统原型。这个可视化接口让用户可以自由地缩放模型的规模,微软...
  • Udacity机器学习工程师Nanodegree程序中包含项目代码和注释的存储库。 完成本课程后,我希望在数据科学或机器学习中找到一个位置。 项目: -探索性分析,决策树 -线性回归,特征工程 -功能选择,分类,可视化 -...
  • 苹果表示,这个框架旨在通过简化机器学习模型的开发,降低开发者构建模型的门槛。详细说明如下:Turi CreateTuri Create简化了自定义机器学习模型的开发。你不需要成为机器学习的专家,即可为你的程序添加推荐,对象...
  • 新智元报道来源:Google编辑:鹏飞【新智元导读】谷歌推出TensorBoard,一种全新...它将帮助您监视指标,可视化模型,ML程序分析,可视化超参数调整实验等。TensorBoard.dev是一项托管服务,只需上传您的TensorBoar...
  • TFLite-Checker 示例项目展示了一种检查* .tflite模型的方法,以获取足够的知识来在Android应用程序中实现它们。 有关更多详细信息,请检查: 博客文章: 用于深度学习和机器学习模型可视化工具。

空空如也

空空如也

1 2 3 4 5 6
收藏数 109
精华内容 43
关键字:

机器学习模型可视化程序