VV1.0.52 安卓汉化版
VV3.7.96 安卓汉化版
VV0.5.46 安卓汉化版
VV7.8.87 安卓汉化版
VV8.9.93 安卓汉化版
VV7.4.88 安卓汉化版
VV3.9.66 安卓汉化版
VV3.3.04 安卓汉化版
VV8.3.99 安卓汉化版
VV6.8.54 安卓汉化版
VV6.3.00 安卓汉化版
VV8.3.53 安卓汉化版
VV2.5.22 安卓汉化版
VV3.7.90 安卓汉化版
VV12.8.85 安卓汉化版
VV0.9.33 安卓汉化版
VV3.0.40 安卓汉化版
VV6.3.59 安卓汉化版
VV1.3.82 安卓汉化版
VV6.9.06 安卓汉化版
VV8.1.89 安卓汉化版
VV7.9.37 安卓汉化版
VV4.3.97 安卓汉化版
VV2.4.36 安卓汉化版
VV4.0.20 安卓汉化版
VV7.9.20 安卓汉化版
VV2.2.21 安卓汉化版
VV5.9.45 安卓汉化版
VV3.6.46 安卓汉化版
VV8.9.22 安卓汉化版
VV2.3.79 安卓汉化版
VV2.6.98 安卓汉化版
VV6.6.81 安卓汉化版
VV8.2.35 安卓汉化版
VV6.2.78 安卓汉化版
VV1.9.71 安卓汉化版
VV9.1.71 安卓汉化版
VV7.7.22 安卓汉化版
VV2.3.18 安卓汉化版
VV5.0.82 安卓汉化版
VV7.6.29 安卓汉化版
VV8.7.06 安卓汉化版
VV8.1.15 安卓汉化版
分类:单机 / 冒险解谜 | 大小:1.27 MB | 授权:免费游戏 |
语言:中文 | 更新:2025/09/08 05:37:49 | 等级: |
平台:Android | 厂商: 舒淇大战黑鬼50分钟 | 官网:暂无 |
权限:
查看
允许程序访问网络. |
备案:湘ICP备2023018554号-3A | |
标签: 爽┈好舒服┈快┈深┈男男 动漫做受❌❌❌高潮9吃奶 裸体美女的隐私㊙️图片被欺凌 |
泰国新总理夫人原为咖啡店老板
一诺当初的愿望实现了
江祖平再发文回应自曝遭性侵
警方通报女子殴打安检员已被行拘朝鲜播出金正恩出席九三阅兵纪录片 2025/09/08 05:37:49
2025/09/08 05:37:49
血月
原来,Scaling Law在32年前就被提出了!
不是2020年的OpenAI、不是2017年的百度, 而是1993年的贝尔实验室。
在一篇名为《Learning Curves: Asymptotic Values and Rate of Convergence》的文章里提出一种预测方法:
通过这种方法,研究人员可以预测模型在更大数据集上的表现。
这和现在大家常提的Scaling Law几乎一致:
而1993年的这篇论文来头也不小,作者一共5位,其中包含了 支持向量机 的提出者Vladimir Vapnik和Corinna Cortes。
为省算力提出预测曲线
这篇论文的研究初衷是为了节省训练分类器(classifiers)的计算资源(果然啥时候都缺算力)。
当时的机器学习算法能实现将输入数据分配到某个类别里,比如输入一张手写数字的像素点,判断它是不是某一个数组。
为了让分类器更可靠,往往需要使用大规模数据库训练。但是研究人员并不确定分类器是否适合给定任务,因此开发高效的预测程序非常有必要。
这项研究就是提出了一种预测方法, 先在中等规模的数据集上训练,然后通过提出的学习曲线建模外推,预测其在大数据集上的表现。 这样就不用对分类器进行完整训练,从而节省计算资源。
它首先在几个中等规模训练集上分别计算测试误差、训练误差,然后他们发现,随着训练集的规模变大,训练误差和测试误差都会收敛到一个相同的渐近值a,这个指数a在0.5-1之间。
然后变换为对数线性关系,在对数坐标下得到两条直线。
通过拟合这两条直线能得到a,b,α。
将估计出的幂律曲线外推到更大的训练集规模上(比如60000),预测分类器在完整数据上的误差。
实验结果表明,在线性分类器(布尔分类任务)中预测非常准确。
在多层神经网络(如LeNet)中,即便在任务不可实现(non-realizable)的情况下,外推结果也能很好地预测大规模训练的最终表现。
比如仅用12000样本训练,就能预测新CNN在60000样本上会优于旧CNN。
此外作者还发现,任务越困难,渐近误差越高,收敛速率越小,即学习越慢。
这个理论放在当时可以用来淘汰差的模型,将有限的计算资源放在更值得训练的模型上。
作者也是支持向量机提出者
最后不得不提一下这篇研究的几位作者。
首先来看 Vladimir Vapnik ,他因在统计学习理论和支持向量机方面的贡献而闻名。
他于1958年在乌兹别克国立大学获得数学硕士学位,并于1964年在莫斯科控制科学研究所获得统计学博士学位。1961年至1990年期间,他一直在该研究所工作,并担任计算机科学研究部门的负责人。
Vapnik与Alexey Chervonenkis在1960年至1990年间共同开发了Vapnik-Chervonenkis理论(也称为VC理论)。该理论是计算学习理论的一种形式,旨在从统计学角度解释学习过程。
它是统计学习理论的基石,为学习算法的泛化条件提供了理论基础,并量化了模型的复杂性(通过VC维)。VC理论在无需定义任何先验分布的情况下,为机器学习提供了一种更通用的方法,与贝叶斯理论形成了对比。
同时Vapnik也是 支持向量机(SVM) 的主要发明者。这是一种监督学习模型,用于数据分类和回归分析。1964年,Vapnik和Chervonenkis首次提出了原始的SVM算法。
1990年代,Vapnik加入贝尔实验室开始进行机器学习方面的深入研究。在1992年他和Bernhard Boser、Isabelle Guyon提出了通过应用“核技巧”(kernel trick)来创建非线性分类器的方法,极大地扩展了SVM的应用范围,使其能够处理非线性可分问题。
1995年Vapnik和Corinna Cortes提出了软边距的非线性SVM并将其应用于手写字符识别问题,因为性能表现出色,这篇论文引发广泛关注,也成为机器学习发展中的一块重要基石。
他撰写的《统计学理论的本质》也是机器学习领域的必读著作之一。
以及他2014年还给Facebook当过顾问。
另一位重要作者是 Corinna Cortes 。她现在是Google Research纽约分部的副总裁,负责广泛的理论和应用大规模机器学习问题研究。
她于1989年在哥本哈根大学尼尔斯·玻尔研究所获得物理学硕士学位。随后,她于1993年在罗切斯特大学获得计算机科学博士学位。
在加入Google之前,Cortes在贝尔实验室工作了十多年。
2022年她被任命为ACM Fellow,以表彰她对机器学习领域的贡献。
其余几位作者分别是: L. D. Jackel、Sara A. Solla和John S. Denker
其中 John S. Denker还和LeCun在手写识别上合作过多篇论文 ,也都是机器学习经典大作了。
而他本人也相当全能,涉猎领域包括机器学习、系统安全、好莱坞特效、电子游戏和视频游戏等,完成了很多开创性工作。还曾在加州理工学院创建并教授“微处理器设计”课程(硅谷之所以成为硅谷,和当时美国高校中开始推行芯片设计课程有很大关系)。
甚至,他还是一个飞行员,是FFA的航空安全顾问,并写了一本对飞行原理解释透彻的行业教科书。
Denker还曾于1986-87年担任加州大学圣巴巴拉分校理论物理研究所的访问教授。 他以幽默感和“原型疯狂科学家”的形象而闻名,他的一些事迹甚至在一些电影中有所体现。
One More Thing
值得一提的是,卷积神经网络和支持向量机都诞生于贝尔实验室。它们之间过一段“分庭抗礼”的时期。
在深度学习兴起之前,CNN因为“黑盒”以及需要大规模训练,一些研究者对其持有保留态度;相比之下支持向量机的理论清晰、易于收敛到全局最优解。到底谁是正确路线?一时争论不休。
1995年, Vapnik还和当时的上司Larry Jackel以一顿豪华晚餐打赌 ,到2000年时,人们能不能解释清楚大型神经网络为什么在大规模训练中表现很好?
Vapnik觉得不能。2000年他赢了;随后他们又赌,再过5年结果如何?这一次Vapnik错了:
这场赌局,LeCun是见证人。
论文地址: https://proceedings.neurips.cc/paper/1993/file/1aa48fc4880bb0c9b8a3bf979d3b917e-Paper.pdf
[1]https://x.com/gdb/status/1962594235263427045 [2]https://yorko.github.io/2022/vapnik-jackel-bet/
原来,Scaling Law在32年前就被提出了!
不是2020年的OpenAI、不是2017年的百度, 而是1993年的贝尔实验室。
在一篇名为《Learning Curves: Asymptotic Values and Rate of Convergence》的文章里提出一种预测方法:
通过这种方法,研究人员可以预测模型在更大数据集上的表现。
这和现在大家常提的Scaling Law几乎一致:
而1993年的这篇论文来头也不小,作者一共5位,其中包含了 支持向量机 的提出者Vladimir Vapnik和Corinna Cortes。
为省算力提出预测曲线
这篇论文的研究初衷是为了节省训练分类器(classifiers)的计算资源(果然啥时候都缺算力)。
当时的机器学习算法能实现将输入数据分配到某个类别里,比如输入一张手写数字的像素点,判断它是不是某一个数组。
为了让分类器更可靠,往往需要使用大规模数据库训练。但是研究人员并不确定分类器是否适合给定任务,因此开发高效的预测程序非常有必要。
这项研究就是提出了一种预测方法, 先在中等规模的数据集上训练,然后通过提出的学习曲线建模外推,预测其在大数据集上的表现。 这样就不用对分类器进行完整训练,从而节省计算资源。
它首先在几个中等规模训练集上分别计算测试误差、训练误差,然后他们发现,随着训练集的规模变大,训练误差和测试误差都会收敛到一个相同的渐近值a,这个指数a在0.5-1之间。
然后变换为对数线性关系,在对数坐标下得到两条直线。
通过拟合这两条直线能得到a,b,α。
将估计出的幂律曲线外推到更大的训练集规模上(比如60000),预测分类器在完整数据上的误差。
实验结果表明,在线性分类器(布尔分类任务)中预测非常准确。
在多层神经网络(如LeNet)中,即便在任务不可实现(non-realizable)的情况下,外推结果也能很好地预测大规模训练的最终表现。
比如仅用12000样本训练,就能预测新CNN在60000样本上会优于旧CNN。
此外作者还发现,任务越困难,渐近误差越高,收敛速率越小,即学习越慢。
这个理论放在当时可以用来淘汰差的模型,将有限的计算资源放在更值得训练的模型上。
作者也是支持向量机提出者
最后不得不提一下这篇研究的几位作者。
首先来看 Vladimir Vapnik ,他因在统计学习理论和支持向量机方面的贡献而闻名。
他于1958年在乌兹别克国立大学获得数学硕士学位,并于1964年在莫斯科控制科学研究所获得统计学博士学位。1961年至1990年期间,他一直在该研究所工作,并担任计算机科学研究部门的负责人。
Vapnik与Alexey Chervonenkis在1960年至1990年间共同开发了Vapnik-Chervonenkis理论(也称为VC理论)。该理论是计算学习理论的一种形式,旨在从统计学角度解释学习过程。
它是统计学习理论的基石,为学习算法的泛化条件提供了理论基础,并量化了模型的复杂性(通过VC维)。VC理论在无需定义任何先验分布的情况下,为机器学习提供了一种更通用的方法,与贝叶斯理论形成了对比。
同时Vapnik也是 支持向量机(SVM) 的主要发明者。这是一种监督学习模型,用于数据分类和回归分析。1964年,Vapnik和Chervonenkis首次提出了原始的SVM算法。
1990年代,Vapnik加入贝尔实验室开始进行机器学习方面的深入研究。在1992年他和Bernhard Boser、Isabelle Guyon提出了通过应用“核技巧”(kernel trick)来创建非线性分类器的方法,极大地扩展了SVM的应用范围,使其能够处理非线性可分问题。
1995年Vapnik和Corinna Cortes提出了软边距的非线性SVM并将其应用于手写字符识别问题,因为性能表现出色,这篇论文引发广泛关注,也成为机器学习发展中的一块重要基石。
他撰写的《统计学理论的本质》也是机器学习领域的必读著作之一。
以及他2014年还给Facebook当过顾问。
另一位重要作者是 Corinna Cortes 。她现在是Google Research纽约分部的副总裁,负责广泛的理论和应用大规模机器学习问题研究。
她于1989年在哥本哈根大学尼尔斯·玻尔研究所获得物理学硕士学位。随后,她于1993年在罗切斯特大学获得计算机科学博士学位。
在加入Google之前,Cortes在贝尔实验室工作了十多年。
2022年她被任命为ACM Fellow,以表彰她对机器学习领域的贡献。
其余几位作者分别是: L. D. Jackel、Sara A. Solla和John S. Denker
其中 John S. Denker还和LeCun在手写识别上合作过多篇论文 ,也都是机器学习经典大作了。
而他本人也相当全能,涉猎领域包括机器学习、系统安全、好莱坞特效、电子游戏和视频游戏等,完成了很多开创性工作。还曾在加州理工学院创建并教授“微处理器设计”课程(硅谷之所以成为硅谷,和当时美国高校中开始推行芯片设计课程有很大关系)。
甚至,他还是一个飞行员,是FFA的航空安全顾问,并写了一本对飞行原理解释透彻的行业教科书。
Denker还曾于1986-87年担任加州大学圣巴巴拉分校理论物理研究所的访问教授。 他以幽默感和“原型疯狂科学家”的形象而闻名,他的一些事迹甚至在一些电影中有所体现。
One More Thing
值得一提的是,卷积神经网络和支持向量机都诞生于贝尔实验室。它们之间过一段“分庭抗礼”的时期。
在深度学习兴起之前,CNN因为“黑盒”以及需要大规模训练,一些研究者对其持有保留态度;相比之下支持向量机的理论清晰、易于收敛到全局最优解。到底谁是正确路线?一时争论不休。
1995年, Vapnik还和当时的上司Larry Jackel以一顿豪华晚餐打赌 ,到2000年时,人们能不能解释清楚大型神经网络为什么在大规模训练中表现很好?
Vapnik觉得不能。2000年他赢了;随后他们又赌,再过5年结果如何?这一次Vapnik错了:
这场赌局,LeCun是见证人。
论文地址: https://proceedings.neurips.cc/paper/1993/file/1aa48fc4880bb0c9b8a3bf979d3b917e-Paper.pdf
[1]https://x.com/gdb/status/1962594235263427045 [2]https://yorko.github.io/2022/vapnik-jackel-bet/
一、修复bug,修改自动播放;优化产品用户体验。
二、 1.修复已知Bug。2.新服务。
三、修复已知bug;优化用户体验
四、1,交互全面优化,用户操作更加便捷高效;2,主题色更新,界面风格更加协调;3,增加卡片类个人数据
五、-千万商品随意挑选,大图展现商品细节-订单和物流查询实时同步-支持团购和名品特卖,更有手机专享等你抢-支付宝和银联多种支付方式,轻松下单,快捷支付-新浪微博,支付宝,QQ登录,不用注册也能购物-支持商品收藏,随时查询喜爱的商品和历史购物清单。
六、1.bug修复,提升用户体验;2.优化加载,体验更流程;3.提升安卓系统兼容性
七、1、修复部分机型bug;2、提高游戏流畅度;
厂商其他下载
安卓应用 安卓手游 苹果应用 苹果手游 电脑 迈凯伦
相关版本
查看所有 0条评论>网友评论
反馈原因
其他原因