特斯拉财报电话会议实录:中国增速迅猛,希望能够实现高销量

  划重点:  腾讯科技 4 月 27 日讯特斯拉(纳斯达克证券代码:TSLA)周二发布了该公司截至 2021 年 3 月 31 日的第一季度财务报表。财报显示,特斯拉第一季度总营收为 103.89 亿美元,同比上升 74%;归属特斯拉的净利润为 4.38 亿美元,同比增长 2638%。

Read More →

2021年中国AI语音识别行业市场分析

语音识别是人机交互的入口,是指机器/程序接收、解释声音,或理解和执行口头命令的能力。随着语音技术与智能手机、平板电脑等电子产品芯片集成的深入发展,用户交互体验水平将得到大幅提升,用户认知和习惯得以培养,中国智能语音市场规模将会继续保持稳步扩张态势。

Read More →

“吴文俊奖”十周年颁奖典礼举行,云天励飞获人工智能专项奖芯片项目一等奖

4月10日,2020年度第十届吴文俊 科学技术奖颁奖典礼在北京正式举办。本届“吴文俊奖”首次在半导体、集成电路和软件、微电子等领域开创性设立人工智能专项芯片奖励,云天励飞获得人工智能专项奖芯片项目一等奖。中国工程院院士周寿桓为获奖企业颁发奖项。

Read More →

如何使用Python将给定的图像集进行聚类?

介绍大家好,最近在参加深度学习竞赛时,遇到了一个有趣的问题,即如何将给定的图像集进行聚类,你可能会说,这不是一个简单的分类问题吗?使用卷积神经网络, 就实现,但关键在于没有合适训练数据提供训练。在不想自己收集数据集的情况,我们如何解决这个问题呢?这就是本文的主要内容,即将深度学习直接应用于测试数据(此处为图像),而无需创建训练数据集并在该数据集上训练神经网络。卷积神经网络作为特征提取器首先我们需要讨论为什么需要特征提取器?以及如何使卷积神经网络(CNN)发挥作用。图像数据的特征提取器:假设算法需要像特征一样需要两只眼睛,一只鼻子和一张嘴来将图像分类为面部,但是在不同的图像中,这些特征存在于不同的像素位置,因此简单地将图像扁平化并将其提供给算法是不起作用的。而解决这个问题刚好是CNN的卷积层发挥作用的地方。卷积层作为我们的特征提取器,并将图像分解为越来越精细的细节,我们来看一下下面的例子:

Read More →

深度神经网络,为何备受关注?

深度神经网络是机器学习(ML, Machine Learning)领域中一种技术。在监督学习中,以前的多层神经网络的问题是容易陷入局部极值点。如果训练样本足够充分覆盖未来的样本,那么学到的多层权重可以很好的用来预测新的测试样本。但是很多任务难以得到足够多的标记样本,在这种情况下,简单的模型,比如线性回归或者决策树往往能得到比多层神经网络更好的结果(更好的泛化性,更差的训练误差)。

Read More →

麻省理工设计出“液体”神经网络,可适应快速变化的训练环境

文/陈根 时代里,神经网络对于机器学习具有重要作用。神经网络是通过分析一组“训练”示例来识别模式的算法,也被认为是模仿大脑的加工路径。想要适应自动驾驶、控制机器人、医疗诊断等场景,就必须让神经网络适应快速变化的各种状况。

Read More →

技术分析:基本的图像重建场景

金翅导读 深度学习在各种任务的预测建模方面取得了许多最新进展,但是公众仍然对神经网络的非直觉化泛化行为感到震惊,例如记忆标签改组数据的能力和对抗示例的脆弱性。为解释神经网络的泛化行为,目前已逐步取得了许多理论突破,包括研究随机梯度下降的性质,不同的复杂性度量,泛化差距,以及来自不同方面的更多信息模型或算法的观点。

Read More →

卷积神经网络:解决图像分类、语义分割或机器翻译问题

金翅导读卷积神经网络已成功应用于解决诸如图像分类语义分割或机器翻译等问题,其中解决的这些问题的基础数据表示具有网格状结构。但是,目前许多有趣的任务的数据为无法以网格状结构表示的数据,而这些数据位于不规则的域中。用来表示3D网格,社交网络,电信网络,生物网络或大脑连接组的数据就是这种情况。此类数据通常可以以图表的形式表示,并且图形提供了一种直观合理的表示图像关系的方式,所以对图数据的研究日益增多。已经有很多文献中已经涉及到扩展神经网络使其来处理任意结构的图。早期的工作使用递归神经网络来处理,图域表示为有向无环图的数据(Frasconi等人1997年提出,Sperduti和Starita1998年提出)。图神经网络(GNN)作为递归神经网络的一般化,可以直接处理更通用的图类,例如:循环图,有向图和无向图。由Gori等人在2005年以及Scarselli等人于2009年提出。GNN包含一个迭代过程,该过程传播节点状态直至达到平衡;然后结点经过神经网络,该神经网络根据其状态为每个节点生成输出。Li等人于2016年采纳了这个想法并利用Cho等人于2014年提出的门控循环单元在传播阶段对这个想法进行了改进。目前,大家越来越有兴趣将卷积推广到图域中去。其中,图卷积网络的方法可以大致分为空间卷积和频谱卷积方法。

Read More →

用于半监督学习的图随机神经网络

导读:在 NeurIPS 2020 上,清华大学联合微众银行、微软研究院以及博世 中心提出了 Graph Random Neural Network (GRAND),一种用于图半监督学习的新型图神经网络框架。在模型架构上,GRAND 提出了一种简单有效的图数据增强方法 Random Propagation,用来增强模型鲁棒性及减轻过平滑。基于 Random Propagation,GRAND 在优化过程中使用一致性正则(Consistency Regularization)来增强模型的泛化性,即除了优化标签节点的 cross-entropy loss 之外,还会优化模型在无标签节点的多次数据增强的预测一致性。GRAND 不仅在理论上有良好的解释,还在三个公开数据集上超越了 14 种不同的 GNN 模型,取得了 SOTA 的效果。

Read More →

麻省理工学院的神经网络知道自己什么时候可以被信任

  深度学习神经网络是一种人工智能系统,正在被用于越来越重要的决策,例如从自动驾驶到诊断医疗条件等各种任务。这种类型的网络擅长识别大型和复杂数据集中的模式,以帮助决策。一个很大的挑战是确定神经网络的判断是否正确。麻省理工学院和哈佛大学的研究人员开发了一种快速的方法,让神经网络在数据中提供预测资深对其答案的信心水平。

Read More →