网络主控板初始化异常常,这几天都这样,进不去

爱卡汽车_中国领先的汽车主题社区、汽车资讯、汽车论坛中心今天的补丁下不了,无限初始化!求解决! - 《魔兽世界》论坛
前往页数:
90 牛头人 德鲁伊
90 血精灵 术士
我的也是这样
90 人类 圣骑士
我的也是 我以为是在维护呢 该怎么搞啊
若遇到与服务器的连接问题,请尝试以下步骤,每一步都有可能解决您的问题:1、清理hosts文件;2、关闭脱机工作;3、重置代理服务器设置;4、充值调制解调器/路由器;5、防火墙、路由器和互联网连接共享;6、检查更新。具体请参考:
90 牛头人 死亡骑士
8.92MB的更新下载不了,停在那里不动,什么情况???
90 血精灵 术士
若遇到与服务器的连接问题,请尝试以下步骤,每一步都有可能解决您的问题:1、清理hosts文件;2、关闭脱机工作;3、重置代理服务器设置;4、充值调制解调器/路由器;5、防火墙、路由器和互联网连接共享;6、检查更新。具体请参考:优化网络连接 我试了一下,还是不好使,还是显示正在初始化,有没有第三方地址可以下载补丁啊??
90 牛头人 德鲁伊
请先尝试下载
覆盖至Updates文件夹,并将游戏文件夹重命名,再运行world of warcraft Launcher.exe,确保游戏为最新版本后,再启动但还是会有初始化过程的
90 牛头人 德鲁伊
终于搞定了
90 牛头人 战士
来个懂的!@给解决下
90 牛头人 德鲁伊
自己测试了,果真好用:“internet选项 --连接--局域网设置--自动检测设置勾去掉(不选)”
感谢您的反馈,4楼链接中有这个方法的哦
90 巨魔 潜行者
那第一个号能上 第二个卡初始化时什么情况
110 侏儒 潜行者
我也是一样
无限初始化
以前从来就没见过的情况
82 牛头人 萨满祭司
游戏文件件重命名 重命名哪个文件夹 改什么名字
82 牛头人 萨满祭司
重命名哪个文件夹 怎么重
100 亡灵 战士
覆盖至Updates文件夹是什么意思
我wow里没有Updates这个文件夹啊
100 血精灵 术士
想说点什么吗?登录即可加入讨论。已解决问题
彩虹岛180级刀龙犀利刷图加点,不pk~只刷图,求暴力。今天刚回归,点都初始化了。
提问时间: 07:04:44
彩虹岛180级刀龙犀利刷图加点,不pk~只刷图,求暴力。今天刚回归,点都初始化了。
浏览次数:1691
我的武器是无影,血剑没加(日常刷图不吃霸体药,容易被打断),十字斩不加(任何武器都不推荐加,无影屠戮等固伤就对了,高强可以无限平砍,十字没必要),把短剑精通加了(反正sp有多余,加了小蹦大蹦都有提升)&&&&&加点方案&&&&&职业:鬼剑士&狂战士&狱血魔神&帝血弑天等级:85SP:全部10770已用10435剩余335TP:全部36已用36剩余0QP:全部3974已用3970剩余4&&&&&通用。
答案创立者
以企业身份回答&
快速解决你的电商难题
店铺优化排查提升2倍流量
擅长&nbsp 店铺优化
您可能有同感的问题来自雪球&#xe6关注 机器都会学习了,你的神经网络还跑不动?来看看这些建议 大数据文摘出品 编译:什锦甜、倪倪、胡笳、云舟 在很多机器学习的实验室中,机器已经进行了上万小时的训练。在这个过程中,研究者们往往会走很多弯路,也会修复很多bug,但可以肯定的是,在机器学习的研究过程中,学到经验和知识的并不仅仅是机器,我们人类也积累的丰富的经验,本文就将给你几条最实用的研究建议。 接下来本文将介绍一些训练深度神经网络时的经验(主要基于TensorFlow平台)。有些建议可能对你来说很显而易见,但对其他人来说可能很重要。有些建议可能对某些特定任务并不适用,请谨慎使用! 一般性建议 使用 ADAM优化器。和批量梯度下降等传统优化器相比,Adam优化器效果更好。 TensorFlow使用建议:保存和恢复权重时,记得在创建Adam优化器后创建Saver,因为Adam也有state(也叫学习速率的单位权重)需要恢复。 Relu是最好的非线性映射(激活函数)。就像 Sublime是最好的文本编辑器, ReLU快速、简单,神奇的地方在于它在训练过程中不会逐渐减少梯度。虽然教科书中常用sigmoid作为激活函数,但是它在DNN中不能很好地传递梯度。 不要在输出层用激活函数。这一点应该很明显,但是如果你在构建网络的每一层都使用了一个共享的函数,那这个错误就很常见了。请确保你在输出层没有使用激活函数。 在每一层中增加一个偏差值。这是机器学习入门知识:偏差本质上的作用是把一个平面转化到最佳拟合位置。在y=mx+b函数中, b就是一个偏差值,可以把直线移动到最佳拟合的位置。 使用方差缩放初始化(variance-scaled initialization)。在Tensorflow中,使用类似于tf.contrib.layers.variance_scaling_initializer()这样的方法初始化。 根据我们的经验,这个方法比常规的高斯分布初始化,截断正态分布初始化和Xavier初始化方法效果更好。 总体上讲,方差缩放初始化可以根据每一层输入和输出的数量(TensorFlow中默认使用输入的数量),来调整初始随机权重的方差,从而帮助信号在不需要通过截断或者批量规范化等额外的方法来在网络中传递得更深。 Xavier初始化方法和它类似,只是Xavier初始化在所有层中基本一样,如果网络的层与层之间的取值范围差异很大(常见于卷积网络),每一层使用同一个方差可能就不适用了。 输入数据归一化。在训练时,减去数据集的均值,然后除以标准差。这样可以减少权重在每个方向上的拉伸,帮助神经网络更快更好地学习。保持输入的数据以方差为均值中心可以很好的实现这点。你也要保证每次测试输入采取一致的归一化方法,从而保证你的训练集能够模拟真实数据环境。 合理地缩放数据。这与归一化处理相关,但应该在归一化之前进行。比如,数据x在现实生活中的范围是[0, ],可能服从tanh(x)或者 tanh(x/C)分布,其中 C为常量,用于调整曲线帮助输入数据更好的符合tanh函数的坡度部分。尤其当你输入数据地在一端或者两端无界的情况下,神经网络在 (0,1)范围里可以学习的更好。 通常情况下,不要费力去降低学习速率。SGD中学习速率衰减更常见,但是 ADAM可以更自然地处理它。如果你一定要计较细微的性能差别:在训练结束时短暂地降低学习速率,你可能会看到一个误差突然降低一点,然后再次趋于平稳。 如果你的卷积层有64或128个滤波器,这可能就有些多余了,尤其对于深度网络来说,128个滤波器真的有些多了。如果你已经有了大量的滤波器,再添加可能毫无意义。 池化(pooling)是为了最大程度保持变换的不变性。pooling本质上是使神经网络学习图像中一部分的整体特征。比如,max pooling可以使图像在卷积网络中经过位移、旋转和缩放等变换之后,仍然保持特征的不变性。 调试神经网络 如果你的神经网络不能够学习,也就是说训练时损失或者精确度不收敛,或者不能得到预期的结果。尝试以下的建议: 过拟合!如果你的网络不收敛,第一件要做的事是去过拟合一个训练点,精度应该达到 100%或99.99%,或者误差接近0。如果你的神经网络不能过拟合单个数据点,那么你的架构存在严重但可能很细微的问题。如果你可以过拟合一个数据点但训练更大的数据集时不能收敛,那么可以尝试如下建议。 降低学习速率。你的网络会学习的慢一些,但是它可以下降到最小值,之前无法达到是因为步长设置的太大。(想象一下寻找最小值就相当于你想抵达沟渠最低点,而步长太大导致你直接跨过了沟渠。) 提高学习率。较大的学习率有助于缩短训练时间,减少反馈环路,这就意味着可以较快地预判网络模型是不是可行。不过虽然网络模型能够更快的收敛,但是结果可能不会特别理想,甚至会有较大的振荡。(我们发现对于ADAM优化器,0.001的学习率在许多实验中收效不错。) 减小批处理的样本数。使用样本数为1的批处理能够获取更细粒度的权重以更新反馈,你可以使用TensorBoard查看(或者其他调试/可视化的工具。) 去掉批处理规范化。在批处理样本数减少到1的同时,去掉批处理规范化,可以暴露梯度消失或者梯度爆炸的问题。我们曾有一个神经网络模型在几个星期后仍旧不能收敛。直到去掉了批处理规范化,我们才意识到在第二轮迭代后所有的输出都是NaN。批处理规范化的作用如同止血时的创口贴,但是只有在你的网络模型没有错误的情况下才管用。 增加批处理的样本数。较大样本的批处理,比如使用整个数据集,减少了梯度更新的方差,可以使得每轮迭代的结果更精确。换句话说,权重迭代将朝着正确的方向进行。但是,这个方法受到物理内存大小限制。通常,前面两个使用样本数为1 的批处理和除去批处理规范化的技巧比这个技巧要更有用。 检查矩阵变形。较大的矩阵变形(例如改变图像的横纵轴)会破坏空间的局部性特征,给模型的学习增添了难度,因为矩阵变形也是需要学习的一部分。(自然的特征变得四分五裂。事实上自然特征的空间局部特征也是卷积神经网络之所以有效的原因。)要特别注意多图形/通道的矩阵变形;用numpy.stack()进行适当的调整。 检查损失函数。如果使用的是复杂的损失函数,就先试一下简单的例如L1或者L2损失函数。我们发现L1对于异常值没那么敏感,因此受噪音数据影响较小。 检查可视化。检查你的可视化工具包(matplotlib,OpenCV,等)是否调整了数值的数量级,或者有值域限制?也可以考虑使用统一的配色方案。 案例解析 为了使上述的步骤更容易理解,这里我们展示几张(通过TensorBoard)卷积神经网络做的回归实验的损失图。 首先,这个神经网络根本没有收敛:
我们尝试剪裁数值值域,以防止他们超出范围:
哎呀,看这个没有光滑处理过的线是多么的杂乱。是学习率太大了吗?我们试着衰减了学习率并只用一个样本点进行训练:
你可以看到学习率发生了变化(大概在300到3000步间)。显然,学习率降的太快了。所以,我们放缓了迭代速率,效果就好些了:
你可以看我们在步间进行了衰减。结果好些了,但是还不够,因为损失还没有降到0。 然后我们停止了学习率的衰减并且尝试了将数值压缩到更小的值域并取代了tanh函数。虽然这样损失降到了1,我们仍然不能达到过拟合。
我们就是在这一步发现,去掉批处理规范化后,网络输出很快在一到两次迭代后变成NaN。于是,我们停止了批处理规范化并且把初始化改为方差标准化。这样一下就解决了问题,用一两个输入样本训练就能达到过拟合。虽然图下方的Y轴的值被剪切了,但是初始的误差在5以上,表明误差几乎下降了4个数量级。
上图的上半部分是经过光滑处理的,但是你仍可看到对测试数据很快达到了过拟合,整个训练集的损失也降到了0.01以下。而这时我们还没有衰减学习率。我们将学习率降低了一个数量级后继续训练神经网络,得到了更加好的结果:
这些结果好太多了!但是如果我们将学习率成几何级衰减而不是将训练分成两部分会怎么样呢? 如果将学习率在每一步迭代都乘以0.9995,这个结果就不那么妙了:
原因估计是因为学习率衰减的太快。用0.999995会稍微好一些,但是结果几乎跟没有衰减一样。我们从这一系列的实验中总结出,批处理规范化掩盖了由初始化不当导致的梯度爆炸,而除了最后阶段学习率的衰减,衰减的学习率对于ADAM优化器也不是很有用。伴随着批处理正规化,剪裁值域只是掩盖了真实的问题。我们还通过使用tanh激活函数对我们高方差的输入数据进行了转化。 我希望这些基本的技巧可以对你学习深度神经网络有所帮助。事情往往就是这样,简单的细节可以产生重大的影响。 相关报道:
开课倒计时2天 数据科学实训营第6期 优秀助教推荐|姜姜 作为一枚对数据分析的理解仅限于Excel的小白,曾经一直认为通过写代码来分析数据是件无比高大上的事。可是,在数据科学实训营居然就实现了! 手把手的教学方式,助教和同学们热烈的交流讨论,让我慢慢地觉得一行行代码如此亲切。而当把自己头脑中的构思通过代码实现,看到结果的那一刻,真是无比激动! 经过Kaggle、天池的案例的历练,对这些数据比赛也开始兴趣盎然,有没有小伙伴有兴趣一起去玩一玩的? 作为第6期的北美地区助教,寄语各位学员:前方高能,请准备好足够的时间,如果你能按时提交作业,结业时一定脱胎换骨。
【今日机器学习概念】 Have a Great Definition 志愿者介绍 回复“志愿者”加入我们电脑进pe系统一直卡在系统初始化,等了半天都没进去,怎么办啊_百度知道
电脑进pe系统一直卡在系统初始化,等了半天都没进去,怎么办啊
答题抽奖
首次认真答题后
即可获得3次抽奖机会,100%中奖。
梦回飘摩羯
来自知道合伙人认证团队
梦回飘摩羯
采纳数:126
获赞数:519
擅长:暂未定制
目测你这PE文件丢失,重新安装PE;也有可能是电脑硬盘问题造成假死;有可能是兼容驱动的原因;还有建议你卡住的时候等个几分钟,有时就会读过去;检查内存。内存起码要256m以上,因为pe就是运行在内存上的,个别pe版本消耗内存还要大。还有就是硬盘原因,如果硬盘有坏道或分区错误就不能正常读取,因为pe运行时会将部分外置程序临时存放于硬盘上,如果你不确定换上一块硬盘试试就知道了。内存起码要256m以上,因为pe就是运行在内存上的,个别pe版本消耗内存还要大。还有就是硬盘原因,如果硬盘有坏道或分区错误就不能正常读取,因为pe运行时会将部分外置程序临时存放于硬盘上,如果你不确定换上一块硬盘试试就知道了。因为你说的是同一批机子,应该型号配件都一致,所以可以排除兼容驱动的原因。以上两个原因是最大原因。 还有建议你卡住的时候等个几分钟,有时就会读过去,我也经常碰到。
采纳数:102
获赞数:21876
目测你这PE文件丢失,重新安装PE吧,也有可能是电脑硬盘问题造成假死!
我用的是光盘
现在都是U盘做的,光盘太麻烦!
我原始光盘
用u盘不想要格式的
本回答被网友采纳
廻梦南湖畔
廻梦南湖畔
获赞数:103
擅长:暂未定制
硬盘有问题,或是硬盘数据线和主板接口出问题。
1条折叠回答
为你推荐:
其他类似问题
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。}

我要回帖

更多关于 网络初始化异常 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信