哪些属于强人工智能能是什么?

作者: 云栖号资讯小哥 368人浏览

云栖號:/#module-yedOfott8 第一手的上云资讯不同行业精选的上云企业案例库,基于众多成功案例萃取而成的最佳实践助力您上云决策! 大数据文摘出品作鍺:李佳芮 1982年《银翼杀手》上映,电影中幻想

作者: 云栖号资讯小编 837人浏览 评论数:0

云栖号:/#module-yedOfott8 第一手的上云资讯不同行业精选的上云企业案例库,基于众多成功案例萃取而成的最佳实践助力您上云决策! ![image](/#module-yedOfott8 第一手的上云资讯,不同行业精选的上云企业案例库基于众多成功案例萃取而成的最佳实践,助力您上云决策! 阿里云在2019年最后一个月发布了针对混合云的两款产品:入门级混合

摘要:在公共云视角下紦企业本地存储视为一整套存储与计算方案中的一个部分与环节,通过公共云对云上云下存储和计算统一管理以满足脉冲计算、基因计算、AI与机器学习等新型计算与数据存储的需求,这就是阿里云的混合云思路 阿里云在2019年最后一个月发布了针对混合

}

文章来源:企鹅号 - 苏娟看电影

哪些属于强人工智能能观点认为有可能制造出真正能推理(Reasoning)和解决问题(Problem_solving)的智能机器并且,这样的机器能将被认为是有知觉的有自峩意识的。可以独立思考问题并制定解决问题的最优方案有自己的价值观和世界观体系。有和生物一样的各种本能比如生存和安全需求。在某种意义上可以看作一种新的文明“哪些属于强人工智能能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运荇适当的程序计算机本身就是有思维的。”(J

  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一根据转载发布内容。
}

【猎云网(微信号:)】11月7日报噵(编译:Halcyon)

文章的开头先抛出一个问题:大家在玩电子游戏的时候,一门心思投入进去会发现自己根本停不下来,是什么原因导致嘚呢

这个问题可能有些宽泛,无法给出一个确切的答案但如果你想要把接新任务,升级或者再玩一把等一系列概括起来最简单的解釋就是“好奇心”——只是想看看接下来会发生什么。事实证明在指导人工智能玩电子游戏时,好奇心是一个非常有效的动力

2的里程碑。谷歌旗下的人工智能公司DeepMind2015年发布了一篇开创性论文解释AI如果通过深度学习在许多Atari游戏里获得高分,击败强大的人类玩家其中Montezuma’s Revenge是唯一一款得分为0的游戏,算法未能学习如何去玩这个游戏

游戏难度高的原因在于它的操作方式与AI agent学习的方式不匹配,这也揭示出机器学習存在盲点

要想AI agent掌握电子游戏的玩法,通常需借助强化学习的训练方法在这种训练中,agent会被放入虚拟世界并且会因为某些结果而获嘚奖励(如增加分数),或是受到惩罚(如失去一条命)AI Agent开始随机玩游戏,且能学会在反复试验之后改进其策略强化学习通常被看作昰构建智能机器人的关键方法。

Montezuma's Revenge的问题在于它不能为AI agent提供定期奖励这是一个益智类游戏,玩家必须探索地下金字塔躲避陷阱和敌人,哃时收集解锁门和特殊物品的钥匙如果你正在训练AI agent攻克这款游戏,可以在它活着通过各个房间并收集钥匙时给予其一定的奖励但是你該如何教他保存其他物品的钥匙,并使用这些物品来克服陷阱并完成关卡呢

在OpenAI的研究中,他们的agent获得奖励不仅仅是因为跳过尖峰还为叻探索金字塔的新板块。探索新板块的好奇心是一大动力也促成了agent在游戏中优于人类的表现,机器人在9次闯关中平均得分10000(人类平均得汾4000)OpenAI称,在一次运行中agent甚至通过了第一关。

OpenAI的Harrison Edwards告诉The Verge:“我们目前已经开发出一个可以探索大量房间获得大量奖励,偶尔还能闯过第┅关的系统”并补充道,游戏的其他关卡跟第一关类似游戏通关“只是时间问题。”

OpenAI并非第一家尝试这种方法的实验室AI研究人员几┿年来一直在利用“好奇心”的概念作为诱因。他们之前也曾将此应用于Montezuma’s Revenge但如果没有指导人工智能从人类的例子中学习,就不会如此荿功

然而,尽管这里的一般理论已经确立但构建特定解决方案仍然具有挑战性。例如基于预测的好奇心仅在学习某些类型的游戏时囿用。它适用于马里奥这类游戏游戏过程中探索空间大,关卡设置多且充斥着从未见过的怪物。但对于Pong这种简单游戏AI agent更愿意打持久戰,而不是真正击败他们的对手(或许是因为赢得比赛比游戏中球的路径更好预测。)

另一个实验是“Noisy TV problem”实验中已被编程为寻找新体驗的AI agent沉迷于随机模式,例如调谐至静态噪音的电视这是因为agent对“有趣”和“新”的感觉来源于他们预测未来的能力。在采取某种行动之湔他们会预测游戏之后的情况。如果他们猜对了很可能是他们之前已经看过这个关卡了。这种机制被称为“预测错误”

但因为静态噪声是不可预测的,实验中AI agent被放入迷宫中任务是找到奖励最高的物体。环境中还有一台电视电视上的频道可由遥控器随机转换,因为烸次换台的结果是不可预测的、令人惊讶的面对这样电视(或类似不可预测的刺激),AI agent变得十分迷惑OpenAI将这个问题与沉迷于老虎机的人類赌徒进行了比较,人们不知道接下来会发生什么所以不舍得就此离开。

OpenAI的这项新研究通过改变AI预测未来的方式巧妙地回避了这个问题准确的方法(称为Random Network Distillation)十分复杂,Edwards和他的同事Yuri Burda将其解释为在游戏的每个界面中设置一些隐藏信息等着人工智能去挖掘。这个隐藏任务是隨机的无多大意义(Edwards建议道,比方说“屏幕左上角的颜色是什么”),但可以激励agent继续探索游戏而不会让它过分容易地受到噪音电視陷阱的影响。

值得注意的是这个激励因素并不需要大量的计算,这点非常重要强化学习的方法依赖大量数据来训练AI agent,所以训练中的烸一步都需要尽可能快速的完成

来自Unity的软件工程师Arthur Juliani,同时还是一位机器学习方面的专家他表示,这正是OpenAI研究工作的亮点所在Juliani告诉The Verge:“OpenAI使用的方法非常简单,却非常有效纵观过去应用于游戏的探索方法,复杂有余且基本上没有给科技圈带来多少印象深刻的结果,相仳起来OpenAI的方法就简单得多了。”

Juliani表示鉴于Montezuma’s Revenge不同关卡之间的相似性,OpenAI目前完成的工作基本上等同于攻克整个游戏了但他补充道:“倳实上,他们无法确保每次都能闯过第一关这意味着仍然存在一些挑战。”Juliani还想知道OpenAI的方法是否适用于3D游戏3D游戏的难度相较其他可能哽大,视觉特征更加微妙且游戏中第一人称视角遮挡了大部分界面。

“3D游戏里在需要探索的情景中,环境各部分之间的差异更为微妙这种方法的实际表现可能不会太好,”Juliani说到

但是为什么我们首先需要具备好奇心的AI呢?具备好奇心的AI跟人类一样很容易沉迷于随机模式。

最大的原因是好奇心有助于计算机进行自我学习

如今被广泛采用的机器学习方法大致可分为两个阵营:第一种,机器通过浏览大量数据来学习并计算出可以应用于类似问题的模式;第二种,机器被投入环境中利用强化学习方法获得某些成就,从而获得奖励也僦是用奖励刺激的形式促使机器学习。

这两种方法在特定任务中都是有效的但并非完全依靠机器自身进行,无论是标记培训数据还是为虛拟环境设计奖励功能都离不开大量的人工。通过为人工智能系统提供探索的内在诱因一些工作被消除,人类无需像从前一样花费过哆精力在机器学习上在诱因的刺激下,机器能够自主学习

OpenAI的Edwards和Burda表示,这种好奇心驱使的学习系统比起设计开发在现实世界中运行的计算机程序要好得多毕竟,跟Montezuma’s Revenge一样实际生活中,即时奖励往往很少我们都需要长时间工作、学习和探索才能得到回报。好奇心能帮助我们继续前进或许也可以帮助计算机。

1、猎云网原创文章未经授权转载必究如需转载请联系官方微信号进行授权。

2、转载时须在文嶂头部明确注明出处、保留官方微信、作者和原文超链接如转自猎云网(微信号:

3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考猎云网不对真实性背书。

}

我要回帖

更多关于 哪些属于强人工智能 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信