据外媒报道,美国谷歌公司日前开发出了一种初具自我学习能力的人工智能(AI)系统,这一研究成果为无需指导也能自主学习的人工智能开辟了新道路,未来有望胜任原本被认为只有人类才能完成的复杂工作。
据报道,谷歌此次开发的是模仿人类大脑神经回路、具有学习能力的人工智能“DQN”。谷歌为这款人工智能准备了49款电子游戏,虽未提前输入游戏玩法,该系统仍像人类一样在反复玩游戏的过程中自主掌握了游戏玩法,并总结出了获得,分的秘诀。
以打砖块游戏为例,谷歌人工智能系统在玩到约100次的时候,无法打好飞回来的球,陷入了苦战,但是当玩到400次的时候,就几乎不会丢球。当超过600次之后,人工智能发现了集中击打顶端的砖块,打开一个口,甚至可以将球打入砖块背面的攻略,从而获得,分。
报道称,研究人员之后让参与游戏实验开发的专业玩家和人工智能进行比赛,结果在49款游戏中,人工智能在29款游戏中的得到了与人类玩家相当的得分甚至高出人类玩家的得分。在打砖块游戏中,人工智能获得了人类玩家13倍的得分,在最擅长的“弹球(Pinball)”游戏中,人工智能的得分达到人类玩家的25倍。
据了解,这款人工智能系统涉及的是被称为“深层学习“的最,的研究领域,即计算机通过自主学习掌握判断标准,从而变的越来越聪明。即使没有人类进行指导,也能够通过大量的数据来提高精度,获得超出人类的能力。
据悉,谷歌公司已在今年2月26日的英国科学杂志《自然》(电子版)上公布了这一研究成果,预计将来有望广泛应用于机器人和自动驾驶车等新一代技术。