Google 即将推出可自行迭代的 AI,让机器创造算法避免人为偏见

  • A+
所属分类:技术资讯

技术编辑:北京卡尔博客出版:卡尔博客
科幻小说作家Vernor Vinge曾说过,人类最后的伟大发明将是第一台能够自我复制的机器,Google AutoML团队的科学家们也在尝试类似的方法。AI从一开始就在创建机器学习算法,并测试如何根据数学原理自动进化迭代。
他们认为,“AutoML Zero”在创建“完全未知的算法”的同时,可以减少数据输入过程中的人类偏见。
据报道,谷歌正在为“autol”进行一些主要升级,一些内部研究人员写的一篇论文显示,“AutoML Zero”即将到来。
充满可能性的“自动零”
AutoML是Google发布的开源工具,它极大地简化了机器学习算法的开发过程。Google大脑小组已经对这个工具进行了反复开发。
当前迭代版本可以使用用户可以与Google一起使用的算法包解决此问题,但自动运行仍存在一些需要手动创建和调试早期算法模型的大问题。
这次谷歌组发表的论文中最大的亮点是,这一部分也实现了iautomation。
论文称,谷歌引入了一个全新的框架,创建了一个共同的搜索空间,并以基本的数学运算作为组件,自动实现了完美的机器学习算法。
这个搜索空间很大,但仍然可以看到通过反向波训练的双层神经网络反复传播进化。虽然构建很简单,但该框架设计了许多顶级算法技术,如双线交互、规范化渐变和加权平均值。
也就是说,谷歌已经想出了如何只用基本的数学概念来挖掘AutoML的进化算法。开发者只需创建简单的学习范例。在这个范例中,机器吐出随机生成的100个算法,进行操作,确定哪些算法最有效。
几代后,该算法越来越好,直到找到足够好的运行算法进行进一步迭代。为了生成能够解决新问题的新颖算法,进化过程中幸存的算法用于测试计算机视觉等各种标准的人工智能问题。
据研究人员透露,“automatil zero”比前辈和类似的尖端机器学习生成工具优越得多。在未来的研究中,我们将设置人工智能的更小范围,并使用混合方法将“AutoML Zero”的自我搜索技术与人工执行库相结合的算法,来探讨在更特定的情况下如何工作。
实现强大人工智能的最快方法是自主发展吗?
如前所述,“AutoML Zero”的另一大特点是能够减少“人类偏见”。如果不为算法预先设置固定起点或开发路径,AI更有可能创建我们没有预料到的东西。
如果我们想让AI像人类一样思考,我们不能事先给他们设定答案。好奇心和探索力才是人类智力的两个关键因素,目前的深化学习完全没有这两个特点。
在《Quanta》杂志最近的一篇文章中,作者Matthew Hutson写道:
生物进化是能够创造人类智能的唯一系统,也是很多人工智能研究者的最终梦想。斯坦利和其他人认为,我们想要或想更好地控制物理和社会世界,像人类一样容易控制的算法,就必须模仿自然的算法和策略。他们认为,发现其他解决方案比硬提供编码规则或指示机器在特定性能指标上获得高分更好。算法优先考虑新奇性或乐趣,而不是走路或说话能力。这个想法可能比直接找到结果更有价值。
标准深入学习模型通常类似于黑盒,为得出相关数据和结论,提供了由机器调整和计算的一系列权重和参数。但是从理论上说,这不是机器的智能,而是人为的预卜。
如果人工智能能够进化出自己的解决方案,并将这些参数和深化学习相结合,那么它将更接近于模仿人类解决问题的方式。
本质上,我们今天所说的“自动零”不是让AI解决问题,而是让AI开发算法,不断扩展发现自己的能力。
Uber的AI研究所有一位名叫Kenneth Stanley的计算机领域专家,他对搜索他发表的论文和公开研究结果感兴趣。他在神经进化领域做出了先驱性的贡献,开拓了无目的的探索和创新的AI模式。
在一项测试中,与团队的研究人员一起,将虚拟的轮式机器人放置在迷宫中,并控制它们,通过优化算法找到了通往出口的路。传统的AI模型在40次尝试中仅成功了3次,而无目的的创新AI模型则成功了39次。差异就是创新的AI模型为了进一步探索迷宫,不计算出与出口的距离,不试图找到出口,而是避开所有的死胡同。
进化算法,日本长度
进化算法并不是一个全新的概念,但它进行得太慢了,因为研究成本太高,没有直接应用方案来创造收益或随之而来的收益。
市场上销售的大部分深度学习技术都是针对特定方案解决特定问题,但这种“随心所欲”的算法有多大的可能性
此次谷歌推出“AutoML Zero”,大大降低了进化算法的开发成本,相信这种可能的技术途径也能更快发挥价值。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: