云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

数据库服务器_网站空间租用_新用户

小七 141 0

应用你的卷积神经网络:按需网络研讨会和常见问题解答现已提供!

在数据库里试试这个笔记本10月25日,我们与Databricks的技术产品营销经理Denny Lee一起举办了一个应用卷积神经网络的在线研讨会。这是Databricks免费深度学习基础系列的第三次网络研讨会。在本次网络研讨会中,我们深入探讨了卷积神经网络(CNNs),一种假设输入为图像的特殊类型的神经网络,已被证明对图像分类和对象识别非常有效。我们特别讨论了:CNN架构,节点以3D形式排列,具有宽度、高度和深度,允许应用卷积滤波器提取特征。卷积核(过滤器)是如何工作的,包括如何选择过滤器的大小、步长和填充来从输入图像中的像素区域提取特征。合用或子抽样技术,用于减小图像大小以减少参数的数量,从而降低过拟合的风险。我们在Databricks上使用Keras(TensorFlow后端)演示了其中的一些概念,下面是我们今天开始使用的笔记本的链接:使用Keras CNN在数据块上的MNIST演示(第3部分)您仍然可以观看下面的第1部分和第2部分:如果您想免费访问Databricks统一分析平台,并尝试我们的笔记本电脑,您可以访问免费试用。最后,我们进行了问答,下面是按主题分组的问题及其答案。基本原理Q: 我真的需要理解神经网络背后的数学才能使用神经网络吗?虽然使用神经网络并不完全需要了解其背后的数学原理,但重要的是要了解这些基本原理,以便选择正确的算法,并了解如何优化、改进和构建您的深度学习(和机器学习)模型。关于这个主题的一篇好文章是Wale Akinfaderin的《机器学习的数学》。卷积神经网络Q: 为什么要用cnn代替常规的神经网络?你如何在现实生活中使用cnn,你能分享一些应用的例子吗?资料来源:https://cs231n.github.io/卷积网络/正如在训练神经网络中更深入讨论的,卷积神经网络(CNNs)类似于常规的人工神经网络,但前者明确假设输入是图像。问题是完全连接的人工神经网络(如左图所示)不能很好地根据图像缩放。例如,200像素x 200像素x 3个颜色通道(例如RGB)将产生120000个权重。图像越大或越复杂(通道方面),需要的权重就越大。在cnn的情况下,节点只连接到前一层的一个小区域,该区域以3D(宽度、高度、深度)组织。由于节点没有完全连接,这减少了权重(即基数)的数量,从而允许网络更快地完成其传递。Q: CNN是一个由层次、大小和类型组成的网络。我如何选择它们?基于什么?换句话说,我如何设计我的架构?正如《神经网络随需应变网络导论》和《常见问题解答》中所指出的,虽然起点有一般的经验法则(例如,从一个隐藏层开始并相应地展开,输入节点的数量等于特征的维数等),但关键的是您需要进行测试。也就是说,训练您的模型,然后针对该模型运行测试和/或验证,以了解准确性(越高越好)和损失(越低越好)。在设计您的架构时,最好从更好理解和研究的架构开始(例如AlexNet、LeNet-5、Inception、VGG、ResNet等)。从这里,你可以在运行实验时调整层的数量、大小和类型。Q: 为什么要将softmax用于完全连接层?当我们使用logistic回归时,这假设我们的二元分类是伯努利分布。当你需要应用于两个以上的分类器时(比如我们的MNIST分类问题),我们需要一个多项式分布的Bernoulli分布的推广。应用于多项式分布(多分类器)的回归类型称为softmax回归。对于MNIST,我们在完全连接层将手写数字分类为0,…,9之间的某个值,因此使用softmax。一个伟大的深潜水参考是Andrew Ng的CS229讲稿。Q: 过滤器尺寸总是奇数吗?滤波器大小的一种常用方法是f×f,其中f是奇数。虽然没有明确指出,在应用神经网络的幻灯片39,f是一个奇数,因为目标是卷积源像素及其周围的像素。最小值将是3×3的过滤器大小,因为这将是源像素+1像素在2D空间。通过使用偶数f大小,这将导致在源像素周围卷积不到一半的像素。为了更深入地研究这个问题,我们可以在https://datascience.stackexchange.com/a/23186。Q: 如何实现输入长度可变的CNN?也就是说,对于具有可变大小图像的训练数据有什么建议吗?一般来说,你需要调整你的图像大小或零填充它们,以便你的CNN的所有输入图像都是相同的大小。有一些方法涉及LSTMs、RNNs或递归神经网络(尤其是文本数据),它们可以处理可变大小的输入,但请注意,这通常是一项非常重要的任务。ML环境与资源Q: 我是付费数据库用户。我知道如何在我自己的电脑上运行Keras,但还不知道如何在Databricks中运行。使用Databricks时,为机器学习集群启动一个Databricks运行时,该集群包括但不限于Keras、TensorFlow、XGBoost、Horovod和scikit learn。有关更多信息,请参阅Announcing Databricks Runtime For Machine Learning。Q: 我们也有类似的训练吗?有很多很好的Databricks网络研讨会可供选择;关注机器学习的网络研讨会包括(但不限于):介绍MLflow:完整机器学习生命周期的基础设施使用Apache®Spark并行化R代码生产Apache Spark™ 实时预测服务的MLlib模型数据块和机器学习如何推动基因组学的未来GraphFrames:Apache®Spark基于数据帧的图形™Apache®Spark™ MLlib:从快速入门到Scikit学习资源机器学习101Andrej Karparthy的ConvNetJS MNIST演示什么是神经网络中的反向传播?CS231n:用于视觉识别的卷积神经网络教学大纲和幻灯片|课程笔记| YouTube特别关注CS231n:第7讲:卷积神经网络神经网络与深度学习张量流深度可视化工具箱张量流反向传播TensorFrames:googletensorflow与apachespark将深度学习库与apachespark集成轻松构建、扩展和部署深度学习管道免费试用Databricks。今天就开始吧