怎样如何学好初中英语语<(新标准)>

如何学好英语 ? 有没有一个好的“新标准”初中英语学习网站?_百度知道
如何学好英语 ? 有没有一个好的“新标准”初中英语学习网站?
我有更好的答案
以坚持不懈的信心和毅力,必须具备三点。伏尔泰说得好。第一,我们学习英语还有一个很大目的,我相信你一定会战胜英语,任何学好英语的梦想,只要我们肯坚持:“要在这个世界上获得成功,以下的这些学习方法就是你战胜英语,没有这座基石,所以这步更显得重要了、最合理,能起到事半功倍、最实用的方法是什么呢。其次、学好语音是最根本,取得成功的保障,思想最为重要;第二,无论学什么。语音为最基本,它是构建语言的方程式,必须树立明确的目标,就必须坚持到底,只要我们学习的方法对:第一,皆由语音、明确的目标,剑至死都不能离手,感动自己,如果我们放弃它,而词汇和语法则是通过语音才可体现出巨大的效能?除布鲁姆“掌握学习的理论”等法外、卓有成效的系列学习方法。只要你报有这样的心态,必能做常人不能做之事,最终都会成为泡影,那么我们学习英语最科学,再加上全力以赴、最有效、最首要的。在我数年学习英语的过程中,我相信你一定会学好英语,解决这些障碍就是我们学好英语的明确的目标,首先、最关键,我自己大胆仔细创新与归纳总结了一系列符合语言学习者的规律,关键是要坚持自己的原则,即持之以恒的努力,只要我们坚定自己的目标;第二,小的计划不必太精细。一个人要想成功、最快速、正确的方法;第三、背会词汇是学好英语的基石,大的计划很重要,就是要坚持、词汇和语法三大障碍、词汇和语法三大要素构成,也必须具备这三点!本文摘自《赢在单词》一书
我们已经知道学好英语大致框架、视死如归的精神,取得好成绩,我相信你一定会战胜自己。”在学习英语的过程中,感动天地鬼神,吃常人不能吃之苦,是要有好的学习方法,取得成功,我深深的体会到外语要学习好,感动他人。最重要的是思维方法。学习英语有语音,只要我们不怕苦、持之以恒的努力、最首要的、背水一战的勇气任何语言、学会语法。 现叙述如下,就像爬山要知道山顶在哪一样,拥有这样破釜沉舟,没有了价值,就是在所有关于英语考试中。本文摘自《赢在单词》一书
当然要想成功学好英语,且切合学生实际;第三。最后,那么我们前两步也就成了做无用功。当然,只要我们能忍常人不能忍之辱,它是我们学好英语的第一步
用360卫士,里面有各种各样的英语学习软件下载
多听 ,多说,多读,培养语言兴趣
泸江英语网真的很好,力荐.
其他类似问题
学好英语的相关知识
您可能关注的推广回答者:
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁&转&深度学习浅谈 - 好代码编程网
&转&深度学习浅谈
深度学习&&人工神经网络再掀研究热潮
&转自:/contents/118/1934.html
人工神经网络起源于上世纪40年代,到今天已经70年历史了。就像人的一生,经历了起起落落,有过辉煌,有过黯淡,有过嘈杂,有过冷清。总体说来,过去的20年中人工神经网络的研究不温不火,直到最近三五年,随着深度学习概念的提出,人工神经网络才又重新焕发生机,甚至再度掀起研究热潮。本文简述一下人工神经网络的&前世今生&,并简单展望一下它的未来。
第一个神经元模型是1943年McCulloch和Pitts提出的,称为threshold logic,它可以实现一些逻辑运算的功能。自此以后,神经网络的研究分化为两个方向,一个专注于生物信息处理的过程,称为生物神经网络;一个专注于工程应用,称为人工神经网络。本文主要介绍后者。1958年Rosenblatt提出了感知机(perceptron),它本质上是一个线性分类器,1969年Minsky和Papert写了一本书&Perceptrons&,他们在书中指出:①&&单层perceptron不能实现XOR功能;②&&计算机能力有限,不能处理神经网络所需要的长时间运行过程。鉴于Minsky在人工智能领域的影响力&&他是人工智能的奠基人之一,也是著名的MIT CSAIL实验室的奠基人之一,并于1969年获得图灵奖&&这本书令人工神经网络的研究进入了长达10多年的&冬天&。事实上,如果把单层感知机堆成多层(称为multilayer perceptron或MLP,如图1所示),是可以求解线性不可分问题的,但当时缺乏有效的算法。尽管1974年哈佛大学的博士生Paul Werbos提出了比较有效的BP算法[1],但没有引起学界的重视。直到1986年多伦多大学的Geoff Hinton等人重新发现这一算法,并在&Nature&上发表[2],人工神经网络才再次受到重视。
图1&&多层感知机。每个神经元接受下层神经元的输入,与对应的权值相乘并加上一个偏置,
通过sigmoid函数转换后将值传给上层神经元
与此同时,带反馈的神经网络开始兴起,其中以Stephen Grossberg和John Hopfield的工作最具代表性。很多复杂的认知现象比如联想记忆都可以用反馈神经网络进行模拟和解释。所有这些因素促成了上世纪80年代神经网络的研究热潮。一位在神经网络领域非常资深的学者跟我聊天时说,在那个年代,只要你的文章跟神经网络扯上点关系,无论什么杂志,都很容易发表。2008年左右我在清华听了哈佛大学的一位华人学者的讲座,名字我忘了,内容是关于SVM的。演讲过程中他突然用英语来了一句: I really miss the happy days when I was doing researches in neural networks.&令我印象深刻。
但是BP算法在神经网络的层数增多时很容易陷入局部最优,也很容易过拟合。上世纪90年代,Vladimir Vapnik提出了SVM,虽然其本质上是一特殊的两层神经网络,但因其具有高效的学习算法,且没有局部最优的问题,使得很多神经网络的研究者转向SVM。多层前馈神经网络的研究逐渐变得冷清。
直到2006年深度网络(deep network)和深度学习(deep learning)概念的提出,神经网络又开始焕发一轮新的生命。深度网络,从字面上理解就是深层次的神经网络。至于为什么不沿用以前的术语&多层神经网络&,个人猜测可能是为了与以前的神经网络相区分,表示这是一个新的概念。这个名词由多伦多大学的Geoff Hinton研究组于2006年创造[3]。事实上,Hinton研究组提出的这个深度网络从结构上讲与传统的多层感知机没有什么不同,并且在做有监督学习时算法也是一样的。唯一的不同是这个网络在做有监督学习前要先做非监督学习,然后将非监督学习学到的权值当作有监督学习的初值进行训练。这个改变其实对应着一个合理的假设。我们用P(x)表示用无监督学习对网络进行预训练得到的数据的一种表示,然后用有监督学习对网络进行训练(如BP算法),得到P(Y|X),其中Y&为输出(比如类别标签)。该假设认为P(X)的学习有助于P(Y|X)的学习。这种学习思路相对于单纯的有监督学习而言有助于降低过拟合的风险,因为它不仅学习了条件概率分布P(Y|X),还学习了X&和Y&的联合概率分布。关于预训练有助于深度学习的原因还有其他解释,其中最直接的解释是预训练将网络参数训练到一组合适的初始值,从这组初始值出发会令代价函数达到一个更低的值,但Erhan等人的实验证明并不一定是这样的[4]。事实上,他们发现不做预训练,网络能在训练数据集上收敛到更低的误差值,但在测试集上表现却不好,即出现过拟合,如图2所示。
图2一个深度网络在训练集和测试集上的negative log-likelihood(nll)[4]。从左至右分别表示网络有1、2、3层。 从图中看出,相对于有预训练过程,虽然没有预训练过程时训练数据集上的nll值可以更低,但测试数据集上的nll值却更高
由上可以看出,深度网络从结构上讲不是一件新事物,它的兴起主要归功于学习方法的变革。那么,Hinton研究组到底提出了一个什么样的学习方法呢?这要从受限玻尔兹曼机(RBM,restricted Boltzmann Machine)讲起。
RBM是一个单层的随机神经网络(通常我们不把输入层计算在神经网络的层数里),如图3所示,本质上是一个概率图模型。输入层与隐层之间是全连接,但层内神经元之间没有相互连接。每个神经元要么激活(值为1)要么不激活(值为0),激活的概率满足sigmoid函数。RBM的优点是给定一层时另外一层是相互独立的,那么做随机采样就比较方便,可以分别固定一层,采样另一层,交替进行。权值的每一次更新理论上需要所有神经元都采样无穷多次以后才能进行,即所谓的contrastive divergence (CD)算法,但这样计算太慢,于是Hinton等人提出了一个近似方法,只采样n次后就更新一次权值,即所谓的CD-n&算法[5]。
图3&&RBM的结构示意
学好了一个RBM模型后,固定权值,然后在上面垒加一层新的隐层单元,原来RBM的隐层变成它的输入层,这样就构造了一个新的RBM,然后用同样的方法学习它的权值。依此类推,可以垒加多个RBM,构成一个深度网络(如图1所示)。令RBM学习到的权值作为这个深度网络的初始权值,再用BP算法进行学习。这就是深度信念网络的学习方法。
图4的左边给出一个例子[6]。这个网络有4层,将一个高维的图像信号压缩到30维,即最顶层的神经元个数为30。我们还可以将这个网络对称展开,从30维回到原来的高维信号,这样就有了一个8层的网络(见图4的中间)。如果该网络用于信号压缩,那么可以令该网络的目标输出等于输入,再用BP算法对权值进行微调(见图4的右边)。
图4&&一个深度信念网络的例子[6]
这项工作重新燃起了学术界对于神经网络的热情,一大批优秀的学者加入到深层神经网络的研究中来,尤其是蒙特利尔大学的Bengio研究组和斯坦福大学的Ng研究组。从提出的模型种类上分析,Bengio研究组的一个重要贡献是提出了基于自编码器(auto-encoder)的深度学习网络。自编码器与RBM的激活函数都是sigmoid函数,学习原则也是一致的,都可以看成是最大化数据的似然概率,只是实现方式不同。而Ng研究组的一个重要贡献是提出了一系列基于稀疏编码的深层学习网络。他们的工作延伸了深层网络的定义:在同一个网络中,不同层之间的学习方式可以是不一样的。
值得强调的是,在2006年之前也有一个学习效率非常高的深度网络(从历史的角度可能称为多层神经网络更为合适)&&卷积神经网络。这个网络由纽约大学的Yann LeCun于1998年提出[7],并在图像分类(包括手写体认别、交通标志识别等)中得到了很多应用。比如在IJCNN2011年的交通标志识别竞赛中,一组来自瑞士的研究者使用基于卷积神经网络的方法一举夺魁。这个网络本质上是一个多层感知机(如图5所示),那为什么它能够成功呢?人们分析关键可能在于它所采用的局部连接和分享权值的方式,一方面减少了的权值的数量;另一方面降低了过拟合的风险。近年来,人们发现如果卷积神经网络先进行无监督学习,再进行有监督学习,效果会更好。
图5&&卷积神经网络示意[8]
与Hinton一样,LeCun也是一个对神经网络异常痴迷的人,在几乎所有人都放弃了神经网络的时候,他们一直坚持着。
学术界对神经网络的再度热情迅速感染了工业界,一些嗅觉敏锐的公司迅速跟进。2010年,微软雷德蒙研究院的Deng Li博士与Hinton合作发现深层网络可显著提高语音识别的精度[8]。这项成果被微软亚洲研究院进一步深化,他们建立了一些巨大的神经网络,其中一个包含了6600多万神经连结(如图6所示),这是语音识别研究史上最大的同类模型。该模型在Switchboard标准数据集的识别错误率比最低错误率降低了33%!要知道,在语音识别领域,这个数据集上的最低的错误率已多年没有更新了。为此,Deng Li&博士还接受了《纽约时报》的专访。关于这项工作的台前幕后,微软亚洲研究院在人人网上有一篇日志, 里面有详细介绍。
图6&&一个结合了深度网络的语音识别模型[8]
谷歌研究院也迅速加入到神经网络的研究中来。通过与Ng研究组合作,谷歌的研究人员建立了一个巨大的深度网络[9],见图7,共有10亿个参数要学习,堪称史上最大的神经网络。他们用了2000台机器共32000个核训练了1周,在ImageNet数据集上得到的分类准确率比当前最好的结果提高了70%!这项工作在《纽约时报》、《BBC》、《TIMES》等新闻媒体上进行了广泛报道。
图7&&一个深度自编码器的子网络[9]。多个同样的子网络需要垒加在一起
总而言之,深度学习这个概念目前炙手可热,得到了学术界和工业界的广泛认可,大批学者正从不同的领域赶来凑热闹,ICML、NIPS、IEEE Trans. PAMI等著名会议和期刊上的相关论文越来越多。从目前的情况看,这场声势浩大的盛宴至少要持续好几年。
最后,针对深度网络未来几年的可能动向简单谈谈个人看法。我认为至少以下两个方面值得重视。
首先,如何在深度网络中加入反馈连接以提高性能。现有的深度网络中只有前馈连接没有反馈连接,这与真实的神经网络不同。反馈神经网络由于其动态过程比较复杂,没有一般规律可循,训练算法一般不具普适性,往往要针对不同的网络设计不同的算法。更糟的是,相对于近年来兴起的其他机器学习方法,这些学习算法效果不好,也不具有数据的可扩展性,无法很好地适应当前网络时代下的大数据处理需求。近年来这方面也有一些重要进展,比如蓄水池网络和回声状态网络[10],其基本思想是将权值分为两部分,一部分有复杂的前馈、反馈连接,权值固定,不需要学习;另一部分连接比较简单(比如只有线性前馈),只学这部分权值。但是如何将这个思想用到深度网络中去提高性能还是一个正在探索的问题。
第二,硬件与软件的配合。目前绝大多数深度网络都需要进行大量的计算,并行化必不可少。这一点其实很自然,因为毕竟大脑对信息的处理基本是并行的。并行的一种方式是机器的并行,像谷歌2012年在ICML上发表的工作那样[9];另一种方式是使用GPU并行。显然后者对于个人研究者而言更加经济可行。但目前编写GPU代码对于大部分研究人员来讲还是比较费时费力,这有赖于硬件厂商和软件厂商通力合作,为业界提供越来越傻瓜的编程工具。
参考文献:
[1]&Werbos P J. Beyond regression: new tools for prediction and analysis in the behavioral sciences[D].&&Boston:&Harvard&University, 1974.
[2]&&Rumelhart D, Hinton G, Williams R. Learning representations by back-propagating errors[J]. Nature, 3&536.
[3]&&Hinton G E, Osindero S, Teh Y-W. A fast learning algorithm for deep belief nets[J].& Neural Computation,27-1554.
[4]&&Erhan D, Bengio Y, Courville A, et al.& Why does unsupervised pre-training help deep learning?[J].& Journal of Machine Learning Research, -660.
[5]&&Hinton G E. Training products of experts by minimizing contrastive divergence[J].& Neural Computation, 71-1800.
[6]&&Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 86):504-507.
[8]&&LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proc of the IEEE, ): .
[7]&&Dahl G, Yu D, Deng L, et al. Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition[J].& IEEE Transactions on Audio, Speech, and Language Processing, ):30-42.
[8]&&Le Q, Ranzato M, Monga R, et al. Building high-level features using large scale unsupervised learning[C]//ICML2012. Edinburgh:[s.n.],.
[9]&&Jaeger H, Haas H.& Harnessing nonlinearity: predicting chaotic systems and saving energy in wireless communication[J]. Science, -80.
作者简介:&胡晓林,清华大学计算机科学与技术系、智能技术与系统国家重点实验室教师,研究方向为人工神经元网络、神经与认知计算,E-mail:xiaolin.
① http://en.wikipedia.org/wiki/Neural_network
① //note/
.Net 文章一周点击
.Net 文章一月点击
HaoGongJu.Net ( 好代码 ) All Rights Reserved初中语文没学好,导致在阅读英语读物时,有些句子无法理解意思。或者说不能顺畅的翻译。如何弥补?_百度知道
初中语文没学好,导致在阅读英语读物时,有些句子无法理解意思。或者说不能顺畅的翻译。如何弥补?
以上问题。上了3年换了5个语文老师,通过自学。答得好有加分主要是想知道如何弥补初中语文的基础知识,有什么书推荐么?记得初中语文都是基础知识?或者有什么方法可以弥补。即便阅读一般的汉语文章有时也有些句子的意思不容易理解。结果给废了
我已大学毕业工作了7年。平时在阅读时会遇到类似问题。不可能在回到学校学习了。
提问者采纳
不要迷恋汉语语法,就什么都ok了。老祖宗没有语法,最重要的都是积累,和英语语法完全一致,多读多积累,单求什么语文知识,语言习惯养成了,不同是在汉语语法中,做到说话,今天英语语法和当年的汉语语法差不多、逻辑、表达方式、看报纸都忘了所谓的知识,僵死的语法,读得多了、文体知识是没用的,给你点忠告和建议。因为汉语语法是从前苏联搬来的舶来品。不管汉语还是英语,给谓语作补充描述的是补语,别管什么语文知识还是英语知识,可他们一样会说话、宾语的是定语,主干就是主谓宾,那只是个传说。所以,修饰限制谓语的是状语,那就是最好的状态。
简而言之,一样不会犯语法错误、写文章、修辞、表现手法作为语文教师,修饰主语
提问者评价
说的好!大家给的建议都很好,可惜分只能给一个人。总结下来其实就是多积累。感谢大家的热心帮助!
其他类似问题
英语读物的相关知识
其他6条回答
十足的啦,起码有半斤,写多几篇作文、高中语文的基础知识手册,就有八两。我高三时背语文基础知识手册背到阿妈都唔认得,背熟一本书,背多两篇古文初中
语文本身就要背许多的东西,还有我觉得你最好还是好好的去看几本书,像那些课本的解析书。 就可以,毕竟课本你本来就学过,再加上课本的解析书,自己好好的思考在课文中遇到的问题,在有自己的想法时,再去看看相关课本的解析书,两者相辅相成也许可以帮助你。还有该背的还是要好好的背,希望你能成功。
学习没捷径 要多看多读多写
英语阅读就那几个结构 分解好结构 还有揣测好作者的思维 不一定要全部翻译 理解个大概就可以了可以下几个新东方的视频 或者参加些辅导班 你现在上高中么?还是?
首先培养自己对语文学习的兴趣,多看些名著和你感兴趣的文章,慢慢学,不懂就多问问同学和老师,语言都是积累的过程,不要着急.然后上课多认真听讲,课后可以多练练笔,把写文章当作乐趣,常写日记也不错.名著的话,外国名著像&傲慢与偏见&,&哈利.波特&也是不错的.杂志的话,我以前是经常看&读者&的.
不要背古文没有的(本人愚见)去多看写意林,读者。因为你是大人了,这些都是符合大众的。不求多,只求自己可以去意会到别人的意境。自己要多积累,要坚持。不能放弃。语文要慢慢来的。自己去意会吧!goodluck!
您可能关注的推广回答者:
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁不能为空!
&英式英语和美式英语的区别&的课题怎么写?
英式英语和美式英语的区别的课题怎么写?
Either scripts and active content are not permitted to run or Adobe Flash Player version
11.7.0 or greater is not installed.
标准现代英式英语(简称英语)和标准美式英语(简称美语)的区别说大不大,说小也不小,但是两者互相理解没有任何实质性的问题。此文的目的是对两者的区别进行一个大概的比较,给有兴趣的朋友一个参考,但并不能作为学习另一种口音的教材。其中也漏洞百出,若有不尽之处,还请高人指正补充。 元音: 英语和美语的发音最大的区别之一在它们对浑元音(schwa,音标中的倒写e,)的处理。英语中,浑元音在单元音中常通发生在一些非重读的短音a(如about)和短音er(如computer)上。美语中的er很少为浑元音,并有时对短音i(如sentimental,actuality)和u(如wuss),甚至短音的oo(如:hooker)采用了浑元音。(这四个例子在英语中的发音分别为[i], [i], [u:], [u])浑元音的读音是不定的,但是听起来差不多像一个急促的介于“俄”和“啊”的发音。 英语和美语的发音最具代表性的区别是对er的发音的不同。英语中,短音的er是如上所述的浑元音,但长音的er也不过是个拉长了的浑元音,听起来是一个很夸张的介于“俄”和“啊”的声音。而美语中,er听起来怎么都是个“儿”音(例外是一些俗语中发成浑元音)。 ar:除了轻读短音(如singular)和者后连元音(如clarity),英语的ar全部清一色的长音[a:],而美语中,是“阿尔”。事实上,凡是有r在一个音节尾部的时候,美英发音通常都是不一样的,如tour(英:吐啊,美:吐儿),tear(英:踢啊,美:踢儿),pair(英:pe啊,美:pe儿)。甚至在刚才提到的clarity中,英语['kleriti],美语['kle儿r(er)ti] 元音的发音中还有一个比较重要的区别。一是[o]音:短音的o(如often),英语中发音仅仅为一个缩短了的长音o(如or),而美式的短音o听起来和英语的短音[/\]很像,同时长音o后面如果有r都通常像上一段里说的那样儿化了,没有的话(如plausible, applause)就自动变成了一个短音的o的发音。 另外对u,i和其他元音组合的浑元音化,前面提到了一些,其他就靠大家自己体会了。 辅音: 英语的辅音和美语的辅音是基本一样的,但在使用习惯上有些差别。比较重要的也只有以下两个: r:字母r简直是代表了英美两国的所有差别,到处都是它。在做辅音时,其实差别也就是当r在第一个词的词尾,而第二个词以元音开头,英语把r完全当作元音处理,而美语会把r连读当作后面一个词的开头元音的辅音,如词组clear animosity,英语会读成clear|animosity,而美语会读成clear-ranimosity。 另一个比较明显的区别是d和t。在一部分非重读音节中(如paddle,rattle, actuality),英语会清楚地发音这两个字母,但在美语中d和t常常会被模糊成一个很难解释的音,跟其它的语言比较,如果你知道西班牙语或者意大利语,它跟短弹音r很接近;如果你懂日语,那么らりるれろ行的辅音很像。如果你都不知道,那么最接近的解释就是边音l了,但是差了那么一节,就看你自己体会了。 还有一点,history, factory这些词,大家可能都发现o的发音(是一个浑元音)在很多音标标注中都是打了括号的。在英国,英语受文言文的影响喜欢省略这个o,而在美国,这个o常常是发了音的。(如果大家对文言文或者诗歌感兴趣,会发现很多浑元音的字母是用一个单引号'表示的,表示省略) 拼写: 英语和美语的拼写无非有以下几种区别: -re和-er:部分以re结尾的词在美语中以er结尾,如: metre/meter, centimetre/centimeter, theatre/theater, centre/center等等 背景:这些词全部都是从法语中来的(分别是:mètre, centimètre, théa^tre, centre)。其它大部分的re词都是,如genre, hors-d'oeuvre等,不过这些的拼写都没有变化了。 our和or:英语部分our在美语中的拼写为or,如: colour/color, favourite/favorite等等。 背景:这些词大部分也都是从法语中来的,不过没那么明显,很多都因为时间原因变化了。如colour是couleur,favorite是favorit。 -ise和ize:英语中的-ise动词在美语中拼写为-ize,如: organise/organize, actualise/actualize, realise/realize 这些词的衍生也因此而异: organisation/organization 背景:这些词还是从法语中来的,分别为organiser, actualiser, réaliser(但因为语言的演变,法文里这些词现在的意思和英文里这些词现在的意思不完全一样了,如actualise现在的意思是“实现”,而actualiser是“升级,使不过时”;realise现在的意思是“意识到”,而réaliser就变成了“实现”)。 其他还有些特殊变法。我一时间想不起来所有的常规变法,如果有遗漏,欢迎补充。 用词: 英语和美语中有些同样的词语的常用意思是不同的,或者同样的东西用不同的词语来说,而且绝大部分这种词语是和文化风俗有关的,但并不对交流产生实质性影响。如jumper一词在英国可指毛衣,而美国人很少用这个词当衣服讲(是个过时的词),而用sweater来做毛衣。另外有如jersey, slacks, trousers等等。有很多例子,一时想不起来,大家欢迎补充。
分成历史、拼写、语法、发音、未来发展方向等方面写,注意举出具体例子。可以提一下两者出现分歧的原因、影响因素,但这不是重点。
上海新东方学校
上海新东方学校官方账号
说出您感谢的话:}

我要回帖

更多关于 lt a3计划 gt 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信