合肥新站中学想删除一些采集来的文章,不会有什么影响吧!

&于& 16:59&发表在&464
& && && && && && && && &  最近新做了一个企业网站,也是采用了比较流行的织梦系统。目前网站文章有1800篇的样子。网站上线5天内,百度收录数量已达300,谷歌已达1500,总体来说收录还算可以。
  下面谈谈我的做法。因为是以前别人用过的域名,在网站上线之前就采集好以前收录过的URL,大约50个,然后进行保存。网站上线后,立马提交404错误链接。通过工具提取这个域名在百度站长工具里面的全部链接几千个吧,然后对这些垃圾外链进行处理,处理的办法是用条件语句筛选,比如:筛选某域名所有链接,筛选某关键词全部链接。上千、上万的垃圾链接处理其实就这么简单,因为百度可以批量拒绝嘛,根据域名、网站、URL来拒绝外链。
  新开的站加入站长平台后。没有获取到sitemap提交功能的名额,但是也制作了一个站点地图文件,将站点地图的html链接,通过提交URL的形势提交给百度。
  接下来是比较关键的一步:一般我们的思维是网站首页某些列表都是最新的文章,我也是这样做,但是我在首页重要位置留了一块区域,用来展示高质量、高原创度的文章。这得益于一个想法的实现。我给织梦文章表自定义了很多属性。
  织梦文章表自定义了以下属性:文章字数、文章相同数量、文章原创度、文章链接、百度抓取次数、百度最近抓取、百度收录、百度快照、谷歌抓取次数、谷歌最近抓取、谷歌收录、谷歌快照。通过织梦的SQL语句来调用的。比如首页那块重要区域我的调用条件是:百度未抓取且原创度大于90,且文章字数大于800。总之想要什么数据,都可以直接用SQL语句来任意调用。实现站内的推荐,以及链接平衡均匀分布。让每一篇文章都有被展示到的机会。以及赋予链接的权重。
  这种想法的实现得益于一个插件,链接织梦文章表,以及IIS日志表,通过两个表的联合查询。来分析文章的这些属性数据。这个插件也是因为最近工作需要就折腾捣鼓出来了。如图所示  
  到了第3天、第4天收录抓取还是比较稳定。通过SQL语句查询到百度还是有大量的URL未抓取到。怎么办?于是我想了这样一个办法,用织梦的自定义单页功能,做了一个list文章列表的模板,专门来展示百度未抓取文章,放在网站最底部并命名为:sitemap_1.html。而且这个文件里面的内容是随机的,这样保证所有未收录的文章都会被展示到。经过数据测试这个文件一上线后。百度立马抓取到sitemap_1.html这个文件。当然接下来的结果肯定高兴了。那些未被抓取到的url通过这个入口又被抓取到了。数据经过表对比分析,的确是这样,无误。
  接下来是安装插件,安装定时审核插件,保证每天会放出新的文章。定时生成首页以及地图,这样整个站内就形成强大的链接自定义展示功能。百度蜘蛛抓取顺畅无比,让百度蜘蛛来了总会找到新的、有价值的内容。对于外链这块,每天偶尔发几个外链吸引下蜘蛛抓取就行了。没有大量的发布垃圾链接。以后可能会考虑做视频外链、以及一些比较有价值的链接。
  今天就写了这么多。原创不容易,有兴趣的深圳医疗SEO可以和我交流额。黄其林个人瞎扯主页/,专注于研究医疗SEO,以及SEO工具。
由:炸金花 /zjh 收集整理ijnwm0a发布
/zqsilu/newxxt004/index.php
http://hbzx.org/dncrctm/kajactt/buotm/.html
.cn/news/m.html
http://hbzx.org/lwqgpbk/.html
关于A5交易
(中介专线:5)
服务时间:周一到周日8:00-23:30
随时随地上A5站长网!
兄弟网站:|||||||
Powered by Discuz! X3.2
Comsenz Inc.新站在2天内被google收录的方法-优链网
最新公告: |
>>>>行业动态 返回上页
新站在2天内被google收录的方法
  其实谷歌收录是比百度收录容易的很多,不过很多新手也不知道怎么回事,站做了几个月后还是没有收录,今天就叫大家怎么在2天内备谷歌收录。
  一、网站内容发布
  网站程序安装好后,发布一些原创的文章,最好是首发原创的。如果是转载的收录机会是很渺小的!
  二、到谷歌登陆你的网站,登陆地址/addurl/
  三、一定要添加&关于我们&和&隐私政策&
  由于国外对版权问题相当重视,因此google对网站上没有这两个项目的网站自然是没什么好感的。
  四、优化文章url的结构
  对于wordpress而言,使用类似/fenlei/wenzhangming.html之类的文章链接对google是非常友好的
  五、外链
  对新站而言,做出优秀外链并不是一件容易的事情,但是宁可没有外链也不要做垃圾外链,就算没有外链。google照样会收录你的网站。而另一个绝对要避免的就是,如果外链仅仅只有首页,也是非常危险的事情。
  六、新站不能添加过多的友情链接
  每天最多不能超过5个。
  七、网站内容相对专业领域较小
  说老实话,这点我的站点没做到,但是我敢肯定,专业化的网站一定更容易被收录。
  八、千万不要过度采集
  很多新站都是利用现成cms+采集技术实现,因此互联网上站点的同质化就显得非常严重,一般来说首次采集100片文章左右,而且从大站上的采集数量不要超过10%,是绝对不会被判定为采集站的。
  九、其他的一些指标
  其它指标比如:使用老域名、使用com域名、不使用meta做关键字等seo技术就不多说了。配色/在线汉字老网站的采集文章为何能比新站原创来的好?_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
老网站的采集文章为何能比新站原创来的好?
上传于||暂无简介
大小:45.19KB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢&人参与 | 时间:日 20:08
一、搜索引擎为什么要重视原创1.1 采集泛滥化来自的一项调查显示,超过80%的新闻和资讯等都在被人工转载或机器采集,从传统媒体的报纸到娱乐网站花边消息、从游戏攻略到产品评测,甚至高校图书馆发的催还通知都有站点在做机器采集。可以说,优质原创内容是被包围在采集的汪洋大海中之一粟,搜索引擎在海中淘粟,是既艰难又具有挑战性的事情。1.2 提高搜索用户体验数字化降低了传播成本,工具化降低了采集成本,机器采集行为混淆内容来源降低内容质量。采集过程中,出于无意或有意,导致采集网页内容残缺不全,格式错乱或附加垃圾等问题层出不穷,这已经严重影响了搜索结果的质量和用户体验。搜索引擎重视原创的根本原因是为了提高用户体验,这里讲的原创为优质原创内容。1.3 鼓励原创作者和文章转载和采集,分流了优质原创站点的流量,不再具属原创作者的名称,会直接影响到优质原创站长和作者的收益。长期看会影响原创者的积极性,不利于创新,不利于新的优质内容产生。鼓励优质原创,鼓励创新,给予原创站点和作者合理的流量,从而促进内容的繁荣,理应是搜索引擎的一个重要任务。二、采集很狡诈,识别原创很艰难2.1 采集冒充原创,篡改关键信息当前,大量的网站批量采集原创内容后,用人工或机器的方法,篡改作者、发布时间和来源等关键信息,冒充原创。此类冒充原创是需要搜索引擎识别出来予以适当调整的。2.2 内容生成器,制造伪原创利用自动文章生成器等工具,“独创”一篇文章,然后安一个吸引眼球的title,现在的成本也低得很,而且一定具有独创性。然而,原创是要具有社会共识价值的,而不是胡乱制造一篇根本不通的垃圾就能算做有价值的优质原创内容。内容虽然独特,但是不具社会共识价值,此类伪原创是搜索引擎需要重点识别出来并予以打击的。2.3 网页差异化,结构化信息提取困难不同的站点结构化差异比较大,html标签的含义和分布也不同,因此提取关键信息如标题、作者和时间的难易程度差别也比较大。做到既提得全,又提得准,还要最及时,在当前的中文互联网规模下实属不易,这部分将需要搜索引擎与站长配合好才会更顺畅的运行,站长们如果用更清晰的结构告知搜索引擎网页的布局,将使搜索引擎高效地提取原创相关的信息。三、百度识别原创之路如何走?3.1 成立原创项目组,打持久战面对挑战,为了提高搜索引擎用户体验、为了使优质原创者原创网站得到应有的收益、为了推动中文互联网的前进,我们抽调大量人员组成原创项目组:技术、产品、运营、法务等等,这不是临时组织不是1个月2个月的项目,我们做好了打持久战的准备。3.2 原创识别“起源”算法互联网动辄上百亿、上千亿的网页,从中挖掘原创内容,可以说是大海捞针,千头万绪。我们的原创识别系统,在百度大数据的云计算平台上开展,能够快速实现对全部中文互联网网页的重复聚合和链接指向关系分析。首先,通过内容相似程度来聚合采集和原创,将相似网页聚合在一起作为原创识别的候选集合;其次,对原创候选集合,通过作者、发布时间、链接指向、用户评论、作者和站点的历史原创情况、转发轨迹等上百种因素来识别判断出原创网页;最后,通过价值分析系统判断该原创内容的价值高低进而适当的指导最终排序。目前,通过我们的实验以及真实线上数据,“起源”算法已经取得了一定的进展,在新闻、资讯等领域解决了绝大部分问题。当然,其他领域还有更多的原创问题等待“起源”去解决,我们坚定的走着。3.3 原创星火计划我们一直致力于原创内容的识别和排序算法调整,但在当前互联网环境下,快速识别原创解决原创问题确实面临着很大的挑战,计算数据规模庞大,面对的采集方式层出不穷,不同站点的建站方式和模版差异巨大,内容提取复杂等等问题。这些因素都会影响原创算法识别,甚至导致判断出错。这时候就需要百度和站长共同努力来维护互联网的生态环境,站长推荐原创内容,搜索引擎通过一定的判断后优待原创内容,共同推进生态的改善,鼓励原创,这就是“原创星火计划”,旨在快速解决当前面临的严重问题。另外,站长对原创内容的推荐,将应用于“起源”算法,进而帮助百度发现算法的不足,不断改进,用更加智能的识别算法自动识别原创内容。目前,原创星火计划也取得了初步的效果,等等,并且在排序及流量上也取得了合理的提升。最后,原创是生态问题,需要长期的改善,我们将持续投入,与站长携手推动互联网生态的进步;原创是环境问题,需要大家来共同维护,站长们多做原创,多推荐原创,百度将持续努力改进排序算法,鼓励原创内容,为原创作者、原创站点提供合理的排序和流量。文章来源:相关新闻:顶: 1踩: 3
来源:,欢迎分享,(我的QQ/微信:) 原文地址:
相关文章阅读更多:&&&&
(window.slotbydup=window.slotbydup || []).push({
id: '2398785',
container: s,
size: '760,90',
display: 'inlay-fix'
名 称 必填
邮 箱 选填
网 址 选填
◎已有人评论,微信搜:QQ
1楼&& 18:01:01 您好,有个问题想要请教您百度提交原创数据,对原创数据的解释:当前提交成功的去重后原创类型数据这句话不是特别理解~一般是提交链接好还是提交原创数据呢?顶: <ins data-digg="踩: <ins data-digg="
2楼&& 09:02:25 我原创了,但转的收录更快顶: <ins data-digg="踩: <ins data-digg="
3楼&& 12:07:27 石家庄外墙清洗网站管理员 韩先生来关注过本文了,看了本文后我的感受是以后要建立一个原创站点。谢谢博主的文章。顶: <ins data-digg="踩: <ins data-digg="
4楼&& 14:53:47 不晓得现在改没改,但是如果真的就靠转发,时间,来源,作者等就判断一篇文章,貌似也确实有点草率,但是我也将要走上原创之路了,但是作为一个文科生中弱鸡,出路在哪儿?顶: <ins data-digg="踩: <ins data-digg="
5楼&& 14:54:56 原创很难!我要坚持!顶: <ins data-digg="踩: <ins data-digg="
6楼&& 23:34:25 哎,不多说 都是忽悠草根的顶: <ins data-digg="踩: <ins data-digg="
7楼&& 17:28:11 累觉不爱顶: <ins data-digg="踩: <ins data-digg="
8楼&& 19:37:13 都洗洗上班吧顶: <ins data-digg="踩: <ins data-digg="
9楼&& 16:01:33 城市在进步顶: <ins data-digg="踩: <ins data-digg="
10楼&& 00:29:03 有wifi了不假,是移动的,想上网还得花钱顶: <ins data-digg="踩: <ins data-digg="
11楼&& 14:30:05 非常好,城建很重要,但是我们相应的提升了就好了顶: <ins data-digg="踩: <ins data-digg="
12楼&& 14:36:30 很不错哦,但是提高公民的素质才是根本。顶: <ins data-digg="踩: <ins data-digg="
13楼&& 11:33:12 大城市就是好。顶: <ins data-digg="踩: <ins data-digg="
14楼&& 19:25:32 原创不好弄啊,不如采集点文章修改一下,变成伪原创顶: <ins data-digg="踩: <ins data-digg="
15楼&& 15:18:29 多对多的顶: <ins data-digg="踩: <ins data-digg="
16楼&& 11:04:08 百度你不要装清高了好吗????就拿小说来说,所有的小说贴吧都会第一时间盗版正版网站的小说文章,百度你不是一直睁一只眼闭一只眼吗,我觉得百度是两着眼都睁着在放纵盗版。然后以盗版之名封杀其他盗版网站,但是hao123小说又把流量导向另外一些小说盗版网站,我怀疑那些小说盗版网站,直接就是百度自己的。国内巨头都是流氓,是你们带坏了互联网吧,还在装卫道士。婊·子还立牌坊,装清纯,我只能说,恶心。顶: <ins data-digg="踩: <ins data-digg="
17楼&& 11:04:03 确实是这样!!!顶: <ins data-digg="踩: <ins data-digg="
18楼&& 14:03:13 有价值就行 不在乎是否原创 只要能给访问这优质的精准内容 那就够了顶: <ins data-digg="踩: <ins data-digg="
19楼&& 19:46:33 时不时更新原创的文章,没多少效果!顶: <ins data-digg="踩: <ins data-digg="
20楼&& 12:56:17 原创真的可以判断吗? 数据量不可谓不大啊顶: <ins data-digg="踩: <ins data-digg="
21楼&& 09:19:13 我也很好奇这个问题,我发现我采集的1000文章只收录10篇。但是我手动添加的文章5篇,就收录1篇。而且手动的也是网上copy过来的!NBA啊!顶: <ins data-digg="踩: <ins data-digg="
22楼&& 09:54:38 我每天都更新原创的文章,等收录即可顶: <ins data-digg="踩: <ins data-digg="
23楼&& 19:12:16 这个很有帮助顶: <ins data-digg="踩: <ins data-digg="
24楼&& 13:31:32 最近打算做个作文站呢 内容当然都是采集 靠聚合页不知道可以不可以?还有这个站的域名使用的是主站的二级域名这样会不会影响到主站?顶: <ins data-digg="踩: <ins data-digg="
25楼&& 10:33:15 问君能有几多愁。。。恰是网站没流量。顶: <ins data-digg="踩: <ins data-digg="
26楼&& 13:45:55 看了半天,好像没啥用。。。。。。顶: <ins data-digg="踩: <ins data-digg="
27楼&& 11:07:07 一般原创文章一天要是写好几篇的话,实在有点难度,把一篇文章,在原有的基础上加上自己的一些观点,这是否是一篇好的伪源创文章了顶: <ins data-digg="踩: <ins data-digg="
28楼&& 11:37:44 好,油画内框批发顶: <ins data-digg="踩: <ins data-digg="
29楼&& 22:00:03 松松 我的网站是 能收录下吗?或者帮我看看问题顶: <ins data-digg="踩: <ins data-digg="
30楼&& 01:23:12 有价值就行 不在乎是否原创 只要能给访问这优质的精准内容 那就够了顶: <ins data-digg="踩: <ins data-digg="
31楼&& 10:02:26 以后的文章还是走向原创滴轨迹,跟紧搜索引擎的变化步调顶: <ins data-digg="踩: <ins data-digg="
32楼&& 02:57:32 以后做站很难了。seo优化也增加难度了顶: <ins data-digg="踩: <ins data-digg="
33楼&& 11:26:20 汉字的自由组合而已顶: <ins data-digg="踩: <ins data-digg="
34楼&& 11:25:07 说的很对顶: <ins data-digg="踩: <ins data-digg="
35楼&& 22:20:49 以后做站很难了。seo优化也增加难度了顶: <ins data-digg="踩: <ins data-digg="
36楼&& 10:01:18 原创真的可以判断吗? 数据量不可谓不大啊 顶: <ins data-digg="踩: <ins data-digg="
37楼&& 14:15:45 对待新站的算法应该在权重上给例外的考量,相当于考察期,否则新站即使再多原创也只有哭的份儿,等媳妇儿熬成婆连米汤都不剩了估计顶: <ins data-digg="踩: <ins data-digg="
38楼&& 20:21:32 伪原创,不能小时,除非鼓励转载,并且给予转载者原文权重,而原文权重则增加更多!顶: <ins data-digg="踩: <ins data-digg="
39楼&& 11:42:24 度娘商业化的味道太浓了,关键词都被购买了。顶: <ins data-digg="踩: <ins data-digg="
40楼&& 15:28:25 原创是好,但是不一定原创的东西就是好的顶: <ins data-digg="踩: <ins data-digg="
41楼&& 17:47:23 难道所有的文章都著名原创,或者都亲自写吗?顶: <ins data-digg="踩: <ins data-digg="
42楼&& 14:44:19 原创是好,但每隔几几天写一篇好的软文还是比较难顶: <ins data-digg="踩: <ins data-digg="
43楼&& 14:06:32 数字化降低了传播成本,工具化降低了采集成本,机器采集行为混淆内容来源降低内容质量。顶: <ins data-digg="踩: <ins data-digg="
44楼&& 11:42:06 没什么意义的文章,主要内容是原创很重要,我们会努力识别原创内容。真正的识别原创内容的方法讲的很笼统,基本没有。说实话百度也是没有办法,很无奈。顶: <ins data-digg="踩: <ins data-digg="
45楼&& 09:42:05 以后该怎么做呢?绝对的原创是没时间的啊顶: <ins data-digg="踩: <ins data-digg="
46楼&& 22:47:04 原创不原创,就算你是原创,没人看也不如一篇伪原创或采集。顶: <ins data-digg="踩: <ins data-digg="
47楼&& 21:45:41 百度搜索结果现在太差了!顶: <ins data-digg="踩: <ins data-digg="
48楼&& 15:34:12 支持原创,支持百度的做法顶: <ins data-digg="踩: <ins data-digg="
49楼&& 15:20:07 搜索引擎判断原创难度太大,即使你原创了,有经验的SEOer还是能给你伪原创出质量不低的原创来。顶: <ins data-digg="踩: <ins data-digg="
50楼&& 15:17:16 网络是公开透明的,判断原创与否的难度实在太大,即使百度不断的更新算法,也无法保证能够百分百判断文章的原创性。顶: <ins data-digg="踩: <ins data-digg="
51楼&& 14:01:08 你们感受一下这个说法出处是哪里来着??想不起来了,谁提醒我一下顶: <ins data-digg="踩: <ins data-digg="
52楼&& 11:23:51
这样到最后,岂不是很是会出错啊顶: <ins data-digg="踩: <ins data-digg="
53楼&& 11:06:24 seo的工作越来越难了!顶: <ins data-digg="踩: <ins data-digg="
54楼&& 10:59:20 现状中就有很多模仿企业,某个企业出现A产品,另一个企业紧接着出现类A产品。跟着别人屁股后面学。将别人的技术学到手了,但别人怎么创造技术的思维却没学会。比如腾讯。就是跟随策略。顶: <ins data-digg="踩: <ins data-digg="
55楼&& 10:55:16 原创度高的文章和有价值性的文章该怎么判断?凭发布作者,发布时间,评论内容,链接个数,转载个数来判断原创性。是不是忒草率?顶: <ins data-digg="踩: <ins data-digg="
56楼&& 10:54:06 支持原创,鼓励原创内容,为原创作者、原创站点提供合理的排序和流量。顶: <ins data-digg="踩: <ins data-digg="
57楼&& 10:26:45 这是一场战斗顶: <ins data-digg="踩: <ins data-digg="
58楼&& 10:18:16 说一套,做一套。。顶: <ins data-digg="踩: <ins data-digg="
59楼&& 10:02:03 估计要有人被坑。顶: <ins data-digg="踩: <ins data-digg="
60楼&& 09:54:30 百度构想的很好,不过实际的效果会差强人意,还会有一批网站跟着倒霉!顶: <ins data-digg="踩: <ins data-digg="
61楼&& 09:53:52 怎么和互联网寡头玩呢顶: <ins data-digg="踩: <ins data-digg="
62楼&& 09:21:03 每一次创新……都是一个挑战,也是一种尝试!创新很难,因为面临的各种情况太多,但是如果创新成功,也许就是质的飞跃!身为中文搜索引擎的老大哥……百度的责任是重大的!宝臣觉得,对于我们广大站长朋友来说,如果起源算法实施成功,那么我们以往的一些方式,真的也需要更新了!顶: <ins data-digg="踩: <ins data-digg="
63楼&& 09:12:48 百度识别原创,估计还将是个漫长的过程。譬如说吧,我的是个新站,虽然内容都是原创的,但都还没被百度收录,更不用说排名了...而那些采集我文章内容的站点都排在前面,这也是没办法的事情,毕竟是个新站~顶: <ins data-digg="踩: <ins data-digg="
64楼&& 08:58:28 不采集哪有那么多东西写,写死也没什么发展顶: <ins data-digg="踩: <ins data-digg="
65楼&& 08:51:42 感觉都是空话,很难实现,或者说对于我们小站长而言,没有多大的可实施性!顶: <ins data-digg="踩: <ins data-digg="
66楼&& 06:51:16 百度只是给你一个发展趋势,适者生存顶: <ins data-digg="踩: <ins data-digg="
67楼&& 23:50:43 支持原创 顶: <ins data-digg="踩: <ins data-digg="
68楼&& 22:49:11 忘了说,搜索引擎本身就是一个大机器人,无时不刻不再互联网采集吸血,用大机器去判别小机器人,大机器人去吃小机器人,这是什么逻辑,唉,世间事大抵如此顶: <ins data-digg="踩: <ins data-digg="
69楼&& 22:42:20 介绍的很美好,其实百度在搜索引擎算法、相似度、精准度算法方面还处于蹒跚学步阶段,哪一天百度能把自家的服务也放到自然搜索结果页面而不是提高优先级就算学步成功了,所谓的海量数据、机器学习、人工智能,在我国一直是老口号,从未真正高效实现起来,哪天像Google有那么多gfs、mapreduce等等大数据处理论文贡献出来,百度才算真正站起来了,我不是百度人顶: <ins data-digg="踩: <ins data-digg="
70楼&& 22:03:36 原创坚持下去难啊顶: <ins data-digg="踩: <ins data-digg="
71楼&& 21:30:18 没办法,挨着。即使星火计划出来了,如果你的是新站一样白搭顶: <ins data-digg="踩: <ins data-digg="
72楼&& 21:23:53 其实看了半天都不知道,何为高质量的原创,但是新站的原创内容又如何保证,白的星火计划出来了,我都打算做一个高质量的纯原创的分享网站,不知道做不做的起来,或者被人小偷了,采集了,做了镜像网站,该怎么办呢?顶: <ins data-digg="踩: <ins data-digg="
73楼&& 20:57:42 期望百度在原创识别与原创保护上做的更好,鄙视全是采集没有营养的垃圾站顶: <ins data-digg="踩: <ins data-digg="
74楼&& 20:53:30 想打击伪原创,网上工作者的素质培养应该也是一个重点.如果大家把原创像信用卡信誉一样重视,问题是不是会迎刃而解?顶: <ins data-digg="踩: <ins data-digg="
75楼&& 20:47:49 哎,以后做站更难了。大家多多互踩顶: <ins data-digg="踩: <ins data-digg="
76楼&& 20:38:43 那这样说来以后伪原创是不是更难了?顶: <ins data-digg="踩: <ins data-digg="
77楼&& 20:30:20 为了排名和利润去原创。强制性的原创其实跟伪原创一样没有可读性。顶: <ins data-digg="踩: <ins data-digg="
顶的最多文章&&
1434705647516390343
(window.slotbydup=window.slotbydup || []).push({
id: '2398769',
container: s,
size: '300,250',
display: 'inlay-fix'
最牛评论 14113874727168
最近活动 微信公益问答活动投票烧烤会活动花絮}

我要回帖

更多关于 合肥新站中学 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信