最近对隐含形状表示的兴趣日益增长。与明确的陈述相反,他们没有解决局限性,他们很容易处理各种各样的表面拓扑。为了了解这些隐式表示,电流方法依赖于一定程度的形状监督(例如,内部/外部信息或距离形状知识),或者至少需要密集点云(以近似距离 - 到 - 到 - 形状)。相比之下,我们介绍{\方法},一种用于学习形状表示的自我监督方法,从可能极其稀疏的点云。就像在水牛的针问题一样,我们在点云上“掉落”(样本)针头,认为,静统计地靠近表面,针端点位于表面的相对侧。不需要形状知识,点云可以高稀疏,例如,作为车辆获取的Lidar点云。以前的自我监督形状表示方法未能在这种数据上产生良好的结果。我们获得定量结果与现有的形状重建数据集上现有的监督方法标准,并在Kitti等硬自动驾驶数据集中显示有前途的定性结果。
translated by 谷歌翻译
它是雅虎邮件的重要产品要求,以区分个人和机器生成的电子邮件。雅虎邮件的旧生产分类器基于一个简单的逻辑回归模型。该模型通过在SMTP地址级别的聚合功能进行培训。我们建议在消息级别建立深入学习模型。我们构建并训练了四个单独的CNN模型:(1)具有主题和内容的内容模型作为输入; (2)发件人模型,发件人电子邮件地址和名称为输入; (3)通过分析电子邮件收件人的动作模式和相应地基于发件人的开/删除行为的目标标签进行操作模型; (4)通过利用发件人的“显式称呼”信号作为正标签来称呼模型。接下来,在探索上述四种模型的不同组合后,我们建立了最终的完整模型。与旧生产模型相比,我们的全部模型从70.5%提高到78.8%的调整后召回,同时抬起94.7%至96.0%的精度。我们的完整模式也显着击败了这项任务的最先进的BERT模型。此全模型已部署到当前的生产系统(雅虎邮寄6)中。
translated by 谷歌翻译
Logistic回归是广泛使用的统计模型,以描述数据集中的二进制响应变量和预测变量之间的关系。它通常用于机器学习以识别重要的预测因子变量。此任务,变量选择,通常是拟合由$ \ ell_1 $和$ \ ell_ {2} ^ {2} $惩罚的凸组合规范化的逻辑回归模型。由于现代大数据集可以包含数十亿到数十亿的预测变量,因此可变选择方法取决于有效且强大的优化算法来执行良好。然而,可变选择的最先进的算法并不传统地设计用于处理大数据集;它们的规模差或易于产生不可靠的数值结果。因此,在大数据集上执行变量选择,它仍然具有挑战性,而无需获得足够的计算资源和昂贵的计算资源。在本文中,我们提出了一种解决这些缺点的非线性原始双向算法。具体而言,我们提出了一种迭代算法,其通过$ O(t(m,n)\ log(1 / \ epsilon))$业务,其中$ \ epsilon \在(0,1)$表示公差和$ t(m,n)$表示在数据集中执行矩阵矢量乘法所需的算术运算数,每个$ m个包含$ n $功能。这一结果提高了$ O的已知复杂性(\ min(m ^ 2n,mn ^ 2)\ log(1 / \ epsilon))$,因为一阶优化方法,如经典的原始 - 双混合梯度或向前-Backward拆分方法。
translated by 谷歌翻译