y-8已知x分之1 y分之1 33y=6已知x分之1 y分之1 35怎么解,请详细说明

&p&尊敬的玩家您好,欢迎来到广袤的神州大地,圣杯之战即将开启,首先,去寻找属于您的圣遗物,来召唤英灵吧。&br&&/p&&p&1.您希望往哪儿寻找呢?&/p&&p&A.
转向3&/p&&p&C.
转向4&/p&&p&D.
转向5&/p&&p&2.江南一带,素来人杰地灵,物产丰茂,你是要去市集上逛一逛,碰碰运气呢,还是往深山茂林里寻找隐士高人?&/p&&p&A. 先逛市集
转向6&/p&&p&B.
转向7&/p&&p&3.刚到中原,你就看到了战火连天,烽烟弥漫。乱世之中,你是要选择远远躲开,还是积极参战呢?&/p&&p&A. 积极参战
转向8&/p&&p&B.
转向9&/p&&p&4.塞外风土人情,果然和中原大不相同。一到塞外,就有陌生人积极向你传教,你是否愿意遵从他们的教义呢?&/p&&p&A.不,我坚持自己的信仰
转向10&/p&&p&B.交钱入教
转向11&/p&&p&5.极北国界,冰天雪地。陆地接着水面,一片白茫茫的盛景。你因为不小心看了路边金链子大哥一眼,被无数壮汉拿着砍刀追着削,你要往哪跑?&/p&&p&A. 城外
转向12&/p&&p&B. 城里
转向13&/p&&p&6.市集之中,分作两边,一边是热闹非凡的马市,一边是文雅脱俗的花市,你要去哪一边?&/p&&p&A.马市
转向15&/p&&p&B.花市
转向21&/p&&p&7.深山老林之中分出两条路来,老猎户告诉你,这两条路的尽头都是传说中的禁地,一条通往遗石岗,乃是女娲补天之处;一条通往日月洞,传说中供奉着不知名的神器。你要前往哪一边?&/p&&p&A.前往遗石岗
转向14&/p&&p&B.前往日月洞
转向17&/p&&p&8. 你武功卓绝,立下赫赫战功。不料被同僚陷害,关在城门之外,独自面对敌方千军万马。你冲杀四方,终于筋疲力尽,眼前一黑,发现自己竟然已经身死道消,化作厉鬼。前来接引你的黑白无常告诉你,因为你杀气滔天,被蚩尤神灵选中。既可以跟白无常回地狱交差,也可以跟随黑无常前往蚩尤神殿复命,你选择哪一个?&/p&&p&A.跟白无常去地狱看看
转向20&/p&&p&B.跟黑无常去蚩尤神殿
转向18&/p&&p&9.你躲闪不及,遭遇了乱兵的追杀,慌不择路之下,来到了一处破旧道观之前。看守道观的老道士告诉你,往前走的话,可以到达万水源头。你将怎么选择?&/p&&p&A.躲在破庙之中
转向16&/p&&p&B.前往万水源头
转向19&/p&&p&10.你坚持了自己的信仰,没有追随异乡人的步伐。当天夜里,你梦见女娲和伏羲站在你的面前,女娲站在她的补天台前,伏羲则端坐在观中神坛之上。两位神明冲你微笑,你选择跟随哪位的步伐?&/p&&p&A.跟女娲去补天台
转向14&/p&&p&B
去观中神坛拜祭伏羲
转向16&/p&&p&11.你决定忘记自己炎黄子孙的身份,跟随异教徒的信仰。加入宗教之中,你发现他们信奉的神祗是一只狐狸。你每天虔诚祈祷,终于有一天,狐神显灵了,你的面前同时出现了天堂的地狱,天堂里传来神圣的光芒,地狱里则散发着无穷的戾气。你选择前往哪一边?&/p&&p&A.跟随狐神前往天堂
转向21&/p&&p&B.前往地狱寻找你想要的圣遗物
转向20&/p&&p&12.你在大哥们的追杀之下,逃出了城。城外是一片壮阔山水,有路边的老妹儿提醒你,往山上跑可以躲在洞里,顺着江面的话也可以跑到它的源头,你选择哪一个?&/p&&p&A. 往山上跑,躲进洞里。
转向17&/p&&p&B.
顺着江水跑,寻找它的源头
转向19&/p&&p&13.在城里拼了命的逃跑,等到发现身后已经没人了的时候,你发现自己站在一片荒野上,周围无数游客坐在车里,惊恐地看着你。远处传来了隐约的虎啸。你这时候才知道自己居然逃进了野生动物园里。大惊失色之下,你注意到前面的指路牌显示往左前方可以通向草原上的马群,右拐则是往山林中的狐窝走,你选择往哪逃?&/p&&p&A. 左前方去骑马逃亡
转向15&/p&&p&B.
右拐躲进狐窝里
转向21&/p&&p&14.这时候,两块女娲灵石出现在了你的面前,一块窍孔天然,对应九宫八卦;一块字迹分明,恍如翠玉,你选择哪一块?&/p&&p&A.九窍八卦石
恭喜您,获得圣遗物“灵明石卵” &/p&&p&B.
通灵补天石
恭喜您,获得圣遗物“通灵宝玉” &br&&br&&/p&&p&15.面前是一望无际的马群,有两匹神骏同时吸引了您的注意,一匹通体赤红,昂首嘶立,仿佛一团烈焰;一匹乌黑如墨,静静站在群马之中,望着东方,露出依恋神色。你选择哪一匹?&/p&&p&A.红马
恭喜您,获得圣遗物“赤兔马”&/p&&p&B.黑马
恭喜您,获得圣遗物“乌骓”&/p&&p&16.你进了观中,发现神坛上供着两个八卦图。仔细一看,才发现两个八卦的样式有些区别。头一个是乾一兑二,天地定位之形;后一个是一坎二坤,帝出乎震的口诀。你选择跪拜哪一个?&/p&&p&A.第一个
恭喜您,获得圣遗物“先天八卦”&/p&&p&B.第二个
恭喜您,获得圣遗物“后天八卦”&/p&&p&17.洞里昏暗寂静,你掏出手电筒,才发现最里侧的石壁上雕刻着日月的样子。太阳图形下放着一把弓箭,月亮图形下放着一颗药丸。你选择哪一个?&/p&&p&A. 太阳弓箭
恭喜您,获得圣遗物“射日弓”&/p&&p&B.
恭喜您,获得圣遗物“不死药”&/p&&p&18.蚩尤圣殿中一片荒凉,原本无数放着兵刃的橱柜架子上,已经空无一物了。你仔细逛了一圈,才在角落里发现一把生锈的铜锤,你刚要拿,忽然发现蚩尤神像的背后,镶嵌着一把断裂的斧头。你选择哪把武器?&/p&&p&A.铜锤
恭喜您,获得圣遗物“擂鼓瓮金锤”&/p&&p&B.断斧
恭喜您,获得圣遗物“干戚”&/p&&p&19.你跑啊跑,跑啊跑,终于到了源头。你的面前出现了一片汪洋水域,左侧波光粼粼,乃是一片大湖,湖中映出月亮影子;后侧一条大江浩浩荡荡,水中无数鱼儿游玩嬉戏。走投无路之下,你选择投入哪一边?&/p&&p&A. 投湖
恭喜您,魔力共振之下,英灵“李白”出现&/p&&p&B.投江
恭喜您,魔力共振之下,英灵“屈原”出现&/p&&p&20.地狱之中,一片惨烈景象,你大惊失色,躲闪不及,忽然一脚踩到什么软绵绵的东西。回头一看,发现一个绝色女子倒在泥泞之中,双手双脚均被斩断,你刚刚踩到的就是她的双手。这时候,你是先拿起她的手呢,还是先去抱她起来?&/p&&p&A.拿手
恭喜您,获得圣遗物“美人臂”&/p&&p&B. 抱人
恭喜您,获得圣遗物“人彘”&/p&&p&21.忽然眼前出现奇异景象,一只小小狐狸窝在地上,正欲嚼食一株含苞欲放的牡丹,你要怎么办?&/p&&p&A.采下牡丹给狐狸吃
恭喜您,狐狸吃饱之后,变作英灵“妲己”与您签下契约&/p&&p&B.保护牡丹,驱赶狐狸
恭喜您,牡丹化作圣遗物“花神令”&/p&&p&&b&=================&/b&&b&以下为英灵介绍====================&/b&&/p&&p&&b&【一.
&/b&&b&灵明石卵】&/b&&/p&&p&&b&召唤英灵: &/b&&b&孙悟空&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&LANCER
&/b&&b&作为适用棍棒最强的战斗型神灵,可以发挥该职介的超强战力&/b&&/p&&p&&b&BERSERKER
&/b&&b&曾经有过大闹天宫的历史,金钢不坏之躯也可以在狂化后极大增强&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&迷失于天地之间的猢狲,手里握着可以毁灭一切的金色棍棒。他被很多人称作斗战胜佛,在神话之中创下煊赫威名。可是作为英灵被召唤出来的他,只想找回作为“齐天大圣”的自己。&/b&&/p&&p&&b&筋力:A+&/b&&/p&&p&&b&敏捷:A++&/b&&/p&&p&&b&耐久:EX&/b&&/p&&p&&b&魔力:B&/b&&/p&&p&&b&幸运:B&/b&&/p&&p&&b&宝具:EX&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&金钢不坏之躯(A&/b&&b&)
&/b&&/p&&p&&b&拥有最强防御的孙悟空,可以在受到任何A&/b&&b&级以下伤害的瞬间恢复原样&/b&&/p&&p&&b&火眼金睛 &/b&&b&(B&/b&&b&)&/b&&/p&&p&&b&虽然并没有传说中的那么强大,但是可以一定程度提高孙悟空的感知力&/b&&/p&&p&&b&分身变化之术(EX - D&/b&&b&)&/b&&/p&&p&&b&根据master&/b&&b&的魔力,孙悟空可以变幻出相应程度的幻象进行攻击,并可以将自己幻化成任意想要变成的样子,而当魔力到达顶端的时候,可以施展最强大的“法天象地”之术,将自己变成巨人的一击,配合宝具“如意金箍棒”,造成毁灭性的伤害。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&如意金箍棒 &/b&&b&(对界宝具 EX &/b&&b&)&/b&&/p&&p&&b&神话传说中枪棒系的最强武器,重一万三千五百斤。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【二、通灵宝玉】&/b&&/p&&p&&b&召唤英灵: &/b&&b&贾宝玉&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&CASTER
&/b&&b&传说中神石转世的他,可以天生具有极强的魔力&/b&&/p&&p&&b&BERSERKAER
&/b&&b&“你打骂人便罢,&/b&&b&何苦摔那命根子!&/b&&b&”&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&外表俊秀的白面书生,身为富家子弟的他,文采出众,有着对异性致命的吸引力。通灵宝玉转世投胎,对魔法及其敏锐。身为富贵闲人,最讨厌争斗的他,却作为英灵降临到这个残酷的战场上,只为了舍弃一切得到圣杯,希望能够再见一眼“她”。&/b&&/p&&p&&b&筋力:C&/b&&/p&&p&&b&敏捷:D&/b&&/p&&p&&b&耐久:D&/b&&/p&&p&&b&魔力:A++&/b&&/p&&p&&b&幸运:B+&/b&&/p&&p&&b&宝具:A+&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&衔玉而生(B&/b&&b&)&/b&&/p&&p&&b&贾宝玉和通灵宝玉本为一体,如果不将其宝具毁灭的话,贾宝玉可以无限地通过补充魔力重生。
&/b&&/p&&p&&b&判册 &/b&&b&(A++&/b&&b&)&/b&&/p&&p&&b&虽然艰涩难懂,但是贾宝玉可以通过梦境预知敌方的行动和下场。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&通灵宝玉 &/b&&b&(对人宝具 A&/b&&b&)&/b&&/p&&p&&b&拥有自动补充魔力的功能,和贾宝玉原为一体。&/b&&/p&&p&&b&太虚幻境(结界宝具
A+&/b&&b&)&/b&&/p&&p&&b&可以将对手带入梦幻的世界之中,大幅削减其战斗力,并通过特殊的方式判定胜负。对异性效果拔群。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【三、赤兔马】&/b&&/p&&p&&b&召唤英灵: &/b&&b&关羽(真)&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&LANCER
&/b&&b&在古代战场上,长刀也算作枪类的一种。作为“武圣”的关羽,是当之无愧的职阶。&/b&&/p&&p&&b&RIDER
&/b&&b&驾驭赤兔马过五关斩六将,关羽对于马类的坐骑有着特殊的慑服力。&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&武圣。他的名声甚至超越了历史和战场,在黑帮的江湖中也具有崇高的地位。是中华传统美德中“义”的象征,也是唯一从武道进入“圣人”领域的存在。作为英灵降临的他,不仅具备极高的战斗力,更在战略和谋划上无与伦比。并非是真实历史上的战将,更多的是以演义中的形象为人熟知并出现。由于死后见到了蜀国走向覆灭,他悔恨之下毅然提起了青龙偃月刀,跨上赤兔马,即使经历千般轮回,也希望能够当面再见到大哥和三弟一眼,向他们道一声歉。&/b&&/p&&p&&b&筋力:A&/b&&/p&&p&&b&敏捷:B&/b&&/p&&p&&b&耐久:A+&/b&&/p&&p&&b&魔力:D&/b&&/p&&p&&b&幸运:C&/b&&/p&&p&&b&宝具:A+&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&温酒(B&/b&&b&)&/b&&/p&&p&&b&拥有压倒性实力的他,可以通过威慑和速度在瞬间击垮对手。 &/b&&/p&&p&&b&华容道 &/b&&b&(C&/b&&b&)&/b&&/p&&p&&b&面对可敬的敌人,关羽有一定的概率不将其置于死地,容其脱身。&/b&&/p&&p&&b&过五关斩六将 &/b&&b&(A+&/b&&b&)&/b&&/p&&p&&b&曾经过五关斩六将,千里走单骑的关羽,有着极强的持久战能力,每对敌人造成伤害,均可以提高自身的战力和魔力。&/b&&/p&&p&&b&还我头来 &/b&&b&(EX&/b&&b&)&/b&&/p&&p&&b&有过死后化作厉鬼杀死吕蒙的传说。作为英灵的关羽被消灭后,将对对手造成无视防御的一击,造成大量伤害。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&青龙偃月刀 &/b&&b&(对人宝具 A+&/b&&b&)&/b&&/p&&p&&b&又称“冷艳锯”,能够瞬间爆发出极强的伤害&/b&&/p&&p&&b&坐骑:&/b&&/p&&p&&b&赤兔马&/b&&/p&&p&&b&传说中的神驹,日行千里。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【三、赤兔马】&/b&&/p&&p&&b&召唤英灵: &/b&&b&吕布(伪)&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&SABER
&/b&&b&拥有神器“七星刀”的吕布,步兵近战也有着可怕的实力。&/b&&/p&&p&&b&LANCER
&/b&&b&三国时代最强武神,掌中方天画戟天下无敌。&/b&&/p&&p&&b&ARCHER
&/b&&b&有过“辕门射戟”的典故,使用八臂神力弓。&/b&&/p&&p&&b&RIDER
&/b&&b&赤兔马的原主,有“人中吕布,马中赤兔”的称谓。&/b&&/p&&p&&b&BAERKER
&/b&&b&战场上多次大怒狂化的他,可以化身战斗机器,收割敌人的性命。&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&当使用“赤兔马”作为圣遗物召唤英灵的时候,有千分之一的概率降临的并非武圣关羽,而是这个三国时代最强的武将,吕布。被冠以“无敌”之名的他,可以胜任近乎全能的职阶。当吕布被召唤出来的时候,将会把戾气和杀伐带到圣杯战争之中,对战争的走向带来无法捉摸的影响。&/b&&/p&&p&&b&筋力:A++&/b&&/p&&p&&b&敏捷:B+&/b&&/p&&p&&b&耐久:A+&/b&&/p&&p&&b&魔力:D&/b&&/p&&p&&b&幸运:D&/b&&/p&&p&&b&宝具:A+&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&三姓家奴(B&/b&&b&)&/b&&/p&&p&&b&吕布对忠义并没有什么坚持,如果对方进行诱惑的话,他有一定概率背叛投降。&/b&&/p&&p&&b&战三英 &/b&&b&(A+&/b&&b&)&/b&&/p&&p&&b&吕布最擅长的群战,可以同时对抗数名敌人不落下风。&/b&&/p&&p&&b&辕门射戟(B+&/b&&b&)&/b&&/p&&p&&b&可以在百步之外射杀敌人。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&方天画戟 &/b&&b&(对人宝具 A++&/b&&b&)&/b&&/p&&p&&b&极为特殊的长兵器,只有吕布可以施展自如。&/b&&/p&&p&&b&七星刀(对人宝具 A+&/b&&b&)&/b&&/p&&p&&b&吕布的佩刀,因为刺杀董卓而名扬天下的神器。&/b&&/p&&p&&b&八臂神力弓(对人宝具 A&/b&&b&)&/b&&/p&&p&&b&吕布的佩弓,可以精准地在远处狙杀敌人。和方天画戟、七星刀一起,形成了远中近三维立体攻击的全方位宝具。&/b&&/p&&p&&b&坐骑:&/b&&/p&&p&&b&赤兔马&/b&&/p&&p&&b&传说中的神驹,日行千里。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【四、乌骓】&/b&&/p&&p&&b&召唤英灵: &/b&&b&项羽&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&LANCER
&/b&&b&被称为“西楚霸王”的项羽,近乎被视作中华历史上最强将领。正史记载中并无其枪术的传闻,但是在传说中霸王枪却是鼎鼎大名的存在。&/b&&/p&&p&&b&RIDER
&/b&&b&“力拔山兮气盖世,时不利兮骓不逝”&/b&&/p&&p&&b&BERSERKER
&/b&&b&传说中项羽麾下的三千楚兵,个个如同厉鬼,战场上无所畏惧,杀伐无敌,以一当十。项羽也永远冲在战场的最前面,被尊为“万人敌”。&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&中华武将的代表。曾经错失天下的悍将,被视作勇武无敌的象征。&/b&&/p&&p&&b&筋力:EX&/b&&/p&&p&&b&敏捷:B+&/b&&/p&&p&&b&耐久:A&/b&&/p&&p&&b&魔力:B&/b&&/p&&p&&b&幸运:E&/b&&/p&&p&&b&宝具:B&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&破釜沉舟(A&/b&&b&)&/b&&/p&&p&&b&可以爆发出全部的潜力,不知退却的继续战斗。&/b&&/p&&p&&b&重瞳子 &/b&&b&(B&/b&&b&)&/b&&/p&&p&&b&项羽在传说中目生双瞳,有着敏锐的感知力。&/b&&/p&&p&&b&霸王别姬 &/b&&b&(A&/b&&b&)&/b&&/p&&p&&b&项羽拥有着独立行动的能力,当他和master&/b&&b&分开的时候,可以更加专注于战斗,发挥强大的力量。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&鸿门宴(对人宝具 B&/b&&b&)&/b&&/p&&p&&b&能够在战场上摆下对自己有力的酒席,召唤已经逝去的将领对敌人进行刺杀。&/b&&/p&&p&&b&四面楚歌(对军宝具 A&/b&&b&)&/b&&/p&&p&&b&当项羽了解到敌方英灵的传说之后,可以通过动摇其心志,令起失去斗志,不战而溃。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【五、先天八卦】&/b&&/p&&p&&b&召唤英灵: &/b&&b&姜子牙&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&CASTER
&/b&&b&传承了阐教仙术的老者,对阵法尤其擅长&/b&&/p&&p&&b&RIDER
&/b&&b&拥有传说中的神兽“四不像”
&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&主持着太古时期封神战役的仙人。在仙界“玉虚宫”门下学艺,率领武王伐纣,顺应天命,为五侯九伯之首。拥有着打神鞭、杏黄旗等神器,法术出神入化,令人防不胜防。愿望是让圣杯战争中的英灵俱皆归位,还人间太平。&/b&&/p&&p&&b&筋力:D&/b&&/p&&p&&b&敏捷:B&/b&&/p&&p&&b&耐久:C&/b&&/p&&p&&b&魔力:A+&/b&&/p&&p&&b&幸运:A++&/b&&/p&&p&&b&宝具:A&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&借兵(EX - D&/b&&b&)&/b&&/p&&p&&b&当姜子牙面临敌人的时候,可以通过念法召唤出一次性的英灵伙伴为其战斗。据说曾有master&/b&&b&在战败濒死的时候,通过姜子牙召唤出了传说中的元始天尊,瞬间扫清全场,赢得胜局。&/b&&/p&&p&&b&天命(EX&/b&&b&)&/b&&/p&&p&&b&姜子牙一生顺应天命,虽然战斗力极为羸弱,但总能获得最后的胜利。该英灵只适合欧洲玩家使用。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&封神榜(对城宝具 A+&/b&&b&)&/b&&/p&&p&&b&榜上记载了姜子牙所有可以借兵的对象,根据魔力的强弱确定范围随机召唤。&/b&&/p&&p&&b&打神鞭(对人宝具 B&/b&&b&)&/b&&/p&&p&&b&战斗开始之前,可以对敌方英灵造成一次自动伤害。伤害程度根据对方的神性越强而越强。&/b&&/p&&p&&b&杏黄旗 &/b&&b&(对人宝具 B&/b&&b&)&/b&&/p&&p&&b&拥有可以提高幸运值的效果。&/b&&/p&&br&&p&&b&==========================================================&/b&&/p&&p&&b&【六、后天八卦】&/b&&/p&&p&&b&召唤英灵: &/b&&b&诸葛亮&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&CASTER
&/b&&b&多智而近妖的传奇军师。对道术的修为深不可测。&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&听从了圣杯召唤后的卧龙诸葛孔明,没有丝毫的犹豫,便选择了成为英灵的道路。他通过自己的智慧和辩术将所有的master&/b&&b&玩弄于鼓掌之间,掌握着圣杯战争的动向,没有人知道这位如同鬼神一般的智者究竟想要的是什么,但是据说曾经有人听到他独自发出这样的幽幽叹息:&/b&&/p&&p&&b&“千年已过,诸葛亮啊诸葛亮,你又何必……念念不忘?”&/b&&/p&&p&&b&筋力:C&/b&&/p&&p&&b&敏捷:C&/b&&/p&&p&&b&耐久:B+&/b&&/p&&p&&b&魔力:A+&/b&&/p&&p&&b&幸运:D&/b&&/p&&p&&b&宝具:A+++&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&空城计(A+&/b&&b&)&/b&&/p&&p&&b&诸葛亮通过感知迷惑,可以让敌人对他的属性造成误判。出现在敌人的眼中时,他可能拥有着EX的&/b&&b&筋力,或者A+++的敏捷,让敌人难以抉择。&/b&&/p&&p&&b&舌战群儒(A+&/b&&b&)&/b&&/p&&p&&b&诸葛亮通过论辩,对对方施加巨大的心理压力。拥有更胜于东瀛“嘴遁”或“面子果实”的强力效果。敌方如果心理承受能力较差的话,则会出现“羞愧自杀/&/b&&b&主从自相残杀/&/b&&b&叛变/&/b&&b&鬼畜而死”等情况。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&六出祁山(对人宝具 A+++&/b&&b&)&/b&&/p&&p&&b&诸葛亮的坚韧和耐性,可以使他不断地向对方使用技能。在魔力充盈的情况下,可以持续对对方施展最高六次的舌战群儒,造成巨大的心理摧残。&/b&&/p&&p&&b&八阵图(对军宝具 A+++&/b&&b&)&/b&&/p&&p&&b&诸葛亮可以通过将对方困在虚无的阵法之中,让对方无法找到他的踪影,从而立于不败之地,慢慢地对对方进行心理摧残。&/b&&/p&&p&&b&草船借箭 &/b&&b&(对ARCHER&/b&&b&宝具 B&/b&&b&)&/b&&/p&&p&&b&当诸葛亮面对ARCHER&/b&&b&的时候,有一定概率在遭到攻击之后,获得对方的宝具。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【七、射日弓】&/b&&/p&&p&&b&召唤英灵: &/b&&b&羿&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&SABER
&/b&&b&在古老的神话中,他曾作为战神,消灭过世间作恶的无数凶兽,博得了人们的称赞&/b&&/p&&p&&b&ARCHER
&/b&&b&古代传说中的箭神,其实力甚至可以射落太阳&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&从太古之初便被尊为英雄的存在,其神力之强,足以一口气射落九个太阳。化作英灵的他,是当之无愧的战士,可以凭借高超的射术和身手与任何敌人周旋。其性格上的豪迈不羁也赢得了其它英灵的尊重。&/b&&/p&&p&&b&筋力:A+&/b&&/p&&p&&b&敏捷:A&/b&&/p&&p&&b&耐久:A+&/b&&/p&&p&&b&魔力:B&/b&&/p&&p&&b&幸运:C&/b&&/p&&p&&b&宝具:A+&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&战神之躯(A&/b&&b&)&/b&&/p&&p&&b&作为太古的英雄,羿经受了十日的烧灼,并于畴华、青丘、凶水等无数地方诛杀凶兽,他可以不受任何A&/b&&b&级以下结界和环境的影响&/b&&/p&&p&&b&九连珠神箭(B+&/b&&b&)&/b&&/p&&p&&b&羿作为射下九日的英雄,拥有着可以同时攻击最多九个敌人的范围性技巧&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&射日弓(对城宝具 A++&/b&&b&)&/b&&/p&&p&&b&传说中的最强弓箭,附着了太古神魔的力量,可以激发出使用者的最大潜力,但也伴随着会给使用者带来厄运的传闻。据说曾用人使用之后瞎了眼睛,也有人闯下大祸,遭受了割肉剔骨的下场。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【八、不死药】&/b&&/p&&p&&b&召唤英灵: &/b&&b&嫦娥&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&CASTER
&/b&&b&擅长舞蹈的仙人,拥有着倾国倾城的容貌&/b&&/p&&p&&b&ASSASSIN
&/b&&b&有过成功盗取了不死药的传说,通过迷惑敌人达到自己的目的
&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&很少有人能够分辨得清楚嫦娥的真正面目,或许除了羿。真正的嫦娥已经拥有了神格,化作月神太阴星君的名字,而她分身化出的月宫的侍女们,则被统称为嫦娥。她们拥有着同样冰冷而绝色的容颜,不凡的歌舞技艺,以及长久忍受寂寞而形成了孤僻性格。&/b&&/p&&p&&b&筋力:D&/b&&/p&&p&&b&敏捷:A&/b&&/p&&p&&b&耐久:C&/b&&/p&&p&&b&魔力:A&/b&&/p&&p&&b&幸运:A&/b&&/p&&p&&b&宝具:B+&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&窃药(B&/b&&b&)&/b&&/p&&p&&b&嫦娥作为英灵,可以通过匪夷所思的方式盗取敌人的魔力充盈自己。&/b&&/p&&p&&b&绝色(A&/b&&b&)&/b&&/p&&p&&b&嫦娥从来都将自己的美貌作为致胜的武器。不仅仅是异性,时常连同性都摄于其容颜而不忍痛下杀手&/b&&/p&&p&&b&长生不死(B&/b&&b&)&/b&&/p&&p&&b&服用过不死药的嫦娥,可以不需要master&/b&&b&的魔力供给,保持着独立的存在。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&打落凡尘(A+&/b&&b&)&/b&&/p&&p&&b&嫦娥可以通过引诱敌人做出不轨的举动,暂时剥夺其英灵的特性,将其变成普通人……嗯,有的时候不一定变成人……&/b&&/p&&p&&b&广寒宫(对军宝具 A&/b&&b&)&/b&&/p&&p&&b&嫦娥翩然起舞,将传说中的广寒仙境降落人间。并拥有冰蟾,玉兔,和吴刚作为伙伴对敌人进行攻击。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【九、擂鼓瓮金锤】&/b&&/p&&p&&b&召唤英灵: &/b&&b&李元霸&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&RIDER
&/b&&b&拥有坐骑“万里云”,传说中乃是天界金翅大鹏鸟下凡,对神兽拥有天生的吸引力&/b&&/p&&p&&b&BERSERKER
&/b&&b&李元霸传说中乃是狂化之后,举锤骂天,遭雷劈而亡&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&被称为隋唐第一条好汉的十二岁怪力少年。擅长的攻击方式是扔锤往天上砸飞机,或者徒手撕人,非常符合国产抗日片的人物设定,因此对待东瀛的英灵有着特殊的压制优势。看起来瘦瘦小小,好像发育不良一样,小看他的话一定会吃大亏。&/b&&/p&&p&&b&筋力:A+++&/b&&/p&&p&&b&敏捷:B&/b&&/p&&p&&b&耐久:A&/b&&/p&&p&&b&魔力:C&/b&&/p&&p&&b&幸运:E&/b&&/p&&p&&b&宝具:A&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&一锤(B&/b&&b&)&/b&&/p&&p&&b&在隋唐的事迹中,没有人能接得住李元霸的一锤,作为英灵的他,第一锤当头砸下,可以造成巨大的伤害。&/b&&/p&&p&&b&本命元神(A+&/b&&b&)&/b&&/p&&p&&b&李元霸可以化作原形金翅大鹏鸟,速度和力量倍增。据说对英灵孙悟空还有特殊的克制效果。&/b&&/p&&p&&b&骂天(C&/b&&b&)&/b&&/p&&p&&b&李元霸有一定概率在狂化的时候攻击自己&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&十八条好汉(对军宝具 A&/b&&b&)&/b&&/p&&p&&b&李元霸作为隋唐十八条好汉之首,可以暂时地召唤出他们来共同对抗敌人。&/b&&/p&&p&&b&==========================================================&/b&&/p&&p&&b&【十、干戚】&/b&&/p&&p&&b&召唤英灵: &/b&&b&刑天&/b&&/p&&p&&b&适用职阶: &/b&&/p&&p&&b&SABER
&/b&&b&刑天拥有着超强的近战实力,斧盾的配合可以爆发出不下于任何人的杀伤力&/b&&/p&&p&&b&BERSERKER
&/b&&b&失去头颅之后的刑天进入暴怒,连黄帝都要退避三舍&/b&&/p&&p&&b&介绍:&/b&&/p&&p&&b&刑天对于战斗有着本能的饥渴,他厌恶一切压迫和规则。即使失去了头颅,也要在战场上继续挥舞着带着青炎的重斧,他成为英灵的目的只有一个,就是继续无休止的战斗。&/b&&/p&&p&&b&筋力:A+++&/b&&/p&&p&&b&敏捷:B&/b&&/p&&p&&b&耐久:EX&/b&&/p&&p&&b&魔力:C&/b&&/p&&p&&b&幸运:C&/b&&/p&&p&&b&宝具:A&/b&&/p&&p&&b&固有技能:&/b&&/p&&p&&b&不死(A&/b&&b&)&/b&&/p&&p&&b&刑天连头颅都可以失去,他几乎没有致命的弱点。只有彻底粉碎才能将他消灭&/b&&/p&&p&&b&不屈战意(B&/b&&b&)&/b&&/p&&p&&b&刑天除了战斗,几乎不考虑其它任何一切。精神类的攻击对其无效。&/b&&/p&&p&&b&反抗的意志(B&/b&&b&)&/b&&/p&&p&&b&对手英灵的名望越高,刑天就可以爆发出越强的力量。&/b&&/p&&p&&b&宝具:&/b&&/p&&p&&b&干戚之舞(对人宝具 A&/b&&b&)&/b&&/p&&p&&b&刑天同时拥有着斧和盾的效果,均衡的攻防可以保持持续性的作战。&/b&&/p&&p&&b&头颅 &/b&&b&(对人宝具 B+&/b&&b&)&/b&&/p&&p&&b&刑天可以短暂地找回自己的头颅,原本的刑天是隶属于炎帝的诗人,刑天的筋力和魔力属性互换,幸运值提高为A+&/b&&b&,获得技能“卜谋”&/b&&/p&&p&&b&卜谋(B&/b&&b&)&/b&&/p&&p&&b&刑天唱起古老的歌谣,可以指定目标持续恢复魔力和体力。&/b&&/p&
尊敬的玩家您好,欢迎来到广袤的神州大地,圣杯之战即将开启,首先,去寻找属于您的圣遗物,来召唤英灵吧。 1.您希望往哪儿寻找呢?A. 江南胜景 转向2 B. 中原腹地 转向3C. 西域塞外 转向4D. 穷北冰国 转向52.江南一带,素来人杰地灵,物产丰茂,你是要去市…
&p&日本文卫省可没资格勒令日服整改,尽管碧蓝的“抗日手游”主旨令右翼非常不爽。日本右翼想做却做不到的事——下架 勒令整改并通报全国,某部一个文件一句话的事。某部比日本右翼还狠。&br&当日本人开始因为碧蓝欣赏中国风学起中国话时,当碧蓝在一片唱衰和节奏中过关斩将登上榜首时,当大家都把日本右翼的节奏当笑话看时,某部来了这么一出。&br&一如那年老蒋背刺新四军。&br&不要再问大陆为什么没有文化输出了,就像不要再问印度为什么没有军工体系,俄罗斯为什么没有轻工业体系一样。这里没有她存在的土壤。&br&是,我在游戏里就是那最没有革命性的中间阶级。珍惜自己的投入,所以最不满无端的阉割;珍惜自己的投入,所以不像土豪玩家扔了号直接转战日服,所以不敢像零氪玩家一样直接去文化部微博下面带大节奏,带倒了换游戏便是。只好在知乎当个键盘侠。云玩家和文化部云编制人员来喷我吧。&/p&
日本文卫省可没资格勒令日服整改,尽管碧蓝的“抗日手游”主旨令右翼非常不爽。日本右翼想做却做不到的事——下架 勒令整改并通报全国,某部一个文件一句话的事。某部比日本右翼还狠。 当日本人开始因为碧蓝欣赏中国风学起中国话时,当碧蓝在一片唱衰和节奏…
&figure&&img src=&https://pic3.zhimg.com/v2-da6e908fbff06e8e14c60d86d776d225_b.jpg& data-rawwidth=&768& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic3.zhimg.com/v2-da6e908fbff06e8e14c60d86d776d225_r.jpg&&&/figure&&p&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-abd42bbb61ee_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&558& data-rawheight=&315& class=&origin_image zh-lightbox-thumb& width=&558& data-original=&https://pic1.zhimg.com/v2-abd42bbb61ee_r.jpg&&&/figure&&p&作为一名久经片场的老司机,早就想写一些探讨驾驶技术的文章。这篇就介绍利用生成式对抗网络(GAN)的两个基本驾驶技能:&br&&/p&&p&1) 去除(爱情)动作片中的马赛克&/p&&p&2) 给(爱情)动作片中的女孩穿(tuo)衣服&/p&&p&&br&&/p&&h2&生成式模型&/h2&&p&上一篇《&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&用GAN生成二维样本的小例子&/a&》中已经简单介绍了GAN,这篇再简要回顾一下生成式模型,算是补全一个来龙去脉。&/p&&p&生成模型就是能够产生指定分布数据的模型,常见的生成式模型一般都会有一个用于产生样本的简单分布。例如一个均匀分布,根据要生成分布的概率密度函数,进行建模,让均匀分布中的样本经过变换得到指定分布的样本,这就可以算是最简单的生成式模型。比如下面例子:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-d11b5fb26d3cc8e942f841bafe010cd8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1021& data-rawheight=&443& class=&origin_image zh-lightbox-thumb& width=&1021& data-original=&https://pic1.zhimg.com/v2-d11b5fb26d3cc8e942f841bafe010cd8_r.jpg&&&/figure&&p&图中左边是一个自定义的概率密度函数,右边是相应的1w个样本的直方图,自定义分布和生成这些样本的代码如下:&br&&/p&&div class=&highlight&&&pre&&code class=&language-python&&&span&&/span&&span class=&kn&&from&/span& &span class=&nn&&functools&/span& &span class=&kn&&import&/span& &span class=&n&&partial&/span&
&span class=&kn&&import&/span& &span class=&nn&&numpy&/span&
&span class=&kn&&from&/span& &span class=&nn&&matplotlib&/span& &span class=&kn&&import&/span& &span class=&n&&pyplot&/span&
&span class=&c1&&# Define a PDF&/span&
&span class=&n&&x_samples&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&arange&/span&&span class=&p&&(&/span&&span class=&o&&-&/span&&span class=&mi&&3&/span&&span class=&p&&,&/span& &span class=&mf&&3.01&/span&&span class=&p&&,&/span& &span class=&mf&&0.01&/span&&span class=&p&&)&/span&
&span class=&n&&PDF&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&empty&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&)&/span&
&span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&round&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&+&/span& &span class=&mf&&3.5&/span&&span class=&p&&)&/span& &span class=&o&&/&/span& &span class=&mi&&3&/span&
&span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&=&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&mf&&0.5&/span& &span class=&o&&*&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&cos&/span&&span class=&p&&(&/span&&span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&pi&/span& &span class=&o&&*&/span& &span class=&n&&x_samples&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&=&/span& &span class=&mi&&0&/span&&span class=&p&&])&/span& &span class=&o&&+&/span& &span class=&mf&&0.5&/span&
&span class=&n&&PDF&/span& &span class=&o&&/=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&sum&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&p&&)&/span&
&span class=&c1&&# Calculate approximated CDF&/span&
&span class=&n&&CDF&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&empty&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&)&/span&
&span class=&n&&cumulated&/span& &span class=&o&&=&/span& &span class=&mi&&0&/span&
&span class=&k&&for&/span& &span class=&n&&i&/span& &span class=&ow&&in&/span& &span class=&nb&&range&/span&&span class=&p&&(&/span&&span class=&n&&CDF&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&[&/span&&span class=&mi&&0&/span&&span class=&p&&]):&/span&
&span class=&n&&cumulated&/span& &span class=&o&&+=&/span& &span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&i&/span&&span class=&p&&]&/span&
&span class=&n&&CDF&/span&&span class=&p&&[&/span&&span class=&n&&i&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&n&&cumulated&/span&
&span class=&c1&&# Generate samples&/span&
&span class=&n&&generate&/span& &span class=&o&&=&/span& &span class=&n&&partial&/span&&span class=&p&&(&/span&&span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&interp&/span&&span class=&p&&,&/span& &span class=&n&&xp&/span&&span class=&o&&=&/span&&span class=&n&&CDF&/span&&span class=&p&&,&/span& &span class=&n&&fp&/span&&span class=&o&&=&/span&&span class=&n&&x_samples&/span&&span class=&p&&)&/span&
&span class=&n&&u_rv&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&random&/span&&span class=&o&&.&/span&&span class=&n&&random&/span&&span class=&p&&(&/span&&span class=&mi&&10000&/span&&span class=&p&&)&/span&
&span class=&n&&x&/span& &span class=&o&&=&/span& &span class=&n&&generate&/span&&span class=&p&&(&/span&&span class=&n&&u_rv&/span&&span class=&p&&)&/span&
&span class=&c1&&# Visualization&/span&
&span class=&n&&fig&/span&&span class=&p&&,&/span& &span class=&p&&(&/span&&span class=&n&&ax0&/span&&span class=&p&&,&/span& &span class=&n&&ax1&/span&&span class=&p&&)&/span& &span class=&o&&=&/span& &span class=&n&&pyplot&/span&&span class=&o&&.&/span&&span class=&n&&subplots&/span&&span class=&p&&(&/span&&span class=&n&&ncols&/span&&span class=&o&&=&/span&&span class=&mi&&2&/span&&span class=&p&&,&/span& &span class=&n&&figsize&/span&&span class=&o&&=&/span&&span class=&p&&(&/span&&span class=&mi&&9&/span&&span class=&p&&,&/span& &span class=&mi&&4&/span&&span class=&p&&))&/span&
&span class=&n&&ax0&/span&&span class=&o&&.&/span&&span class=&n&&plot&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&p&&,&/span& &span class=&n&&PDF&/span&&span class=&p&&)&/span&
&span class=&n&&ax0&/span&&span class=&o&&.&/span&&span class=&n&&axis&/span&&span class=&p&&([&/span&&span class=&o&&-&/span&&span class=&mf&&3.5&/span&&span class=&p&&,&/span& &span class=&mf&&3.5&/span&&span class=&p&&,&/span& &span class=&mi&&0&/span&&span class=&p&&,&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&max&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&p&&)&/span&&span class=&o&&*&/span&&span class=&mf&&1.1&/span&&span class=&p&&])&/span&
&span class=&n&&ax1&/span&&span class=&o&&.&/span&&span class=&n&&hist&/span&&span class=&p&&(&/span&&span class=&n&&x&/span&&span class=&p&&,&/span& &span class=&mi&&100&/span&&span class=&p&&)&/span&
&span class=&n&&pyplot&/span&&span class=&o&&.&/span&&span class=&n&&show&/span&&span class=&p&&()&/span&
&/code&&/pre&&/div&&p&对于一些简单的情况,我们会假设已知有模型可以很好的对分布进行建模,缺少的只是合适的参数。这时候很自然只要根据观测到的样本,学习参数让当前观测到的样本下的似然函数最大,这就是最大似然估计(&b&M&/b&aximum &b&L&/b&ikelihood &b&E&/b&stimation):&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Chat%7B%5Ctheta%7D%3D%5Coperatorname%2A%7Bargmax%7D_%7B%5Ctheta%7D+P%28%5Cbm%7Bx%7D%7C%5Ctheta%29+%3D+%5Coperatorname%2A%7Bargmax%7D_%7B%5Ctheta%7D+%5Cprod_%7Bi%3D1%7D%5E%7Bn%7DP%28x_i%7C%5Ctheta%29+& alt=&\hat{\theta}=\operatorname*{argmax}_{\theta} P(\bm{x}|\theta) = \operatorname*{argmax}_{\theta} \prod_{i=1}^{n}P(x_i|\theta) & eeimg=&1&&&/p&&p&MLE是一个最基本的思路,实践中用得很多的还有KL散度(Kullback–Leibler divergence),假设真实分布是P,采样分布是Q,则KL散度为:&/p&&p&&img src=&https://www.zhihu.com/equation?tex=D_%7BKL%7D%28P%7C%7CQ%29%3D%5Csum_%7Bx+%5Cin+%5COmega%7DP%28%7Bx%7D%29%5Clog%5Cfrac%7BP%28x%29%7D%7BQ%28x%29%7D+& alt=&D_{KL}(P||Q)=\sum_{x \in \Omega}P({x})\log\frac{P(x)}{Q(x)} & eeimg=&1&&&/p&&p&从公式也能看出来,KL散度描述的是两个分布的差异程度。换个角度来看,让产生的样本和原始分布接近,也就是要让这俩的差异减小,所以最小化KL散度就等同于MLE。从公式上来看的话,我们考虑把公式具体展开一下:&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Cbegin%7Balign%7D+D_%7BKL%7D%28P%7C%7CQ%29+%26%3D%5Csum_%7Bx+%5Cin+%5COmega%7DP%28%7Bx%7D%29%5Clog%5Cfrac%7BP%28x%29%7D%7BQ%28x%29%7D+%5C%5C+%26+%3D-%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BQ%28x%29%7D+%2B%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BP%28x%29%7D+%5C%5C+%26+%3D-%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5Cend%7Balign%7D& alt=&\begin{align} D_{KL}(P||Q) &=\sum_{x \in \Omega}P({x})\log\frac{P(x)}{Q(x)} \\ & =-\sum_{x\in\Omega}P({x})\log{Q(x)} +\sum_{x\in\Omega}P({x})\log{P(x)} \\ & =-\sum_{x\in\Omega}P({x})\log{Q(x)} +H(P) \end{align}& eeimg=&1&&&/p&&p&公式的第二项就是熵,先不管这项,用H(P)表示。接下来考虑一个小trick:从Q中抽样n个样本&img src=&https://www.zhihu.com/equation?tex=%7Bx_1%2Cx_2%2C...%2Cx_n%7D& alt=&{x_1,x_2,...,x_n}& eeimg=&1&&,来估算P(x)的经验值(empirical density function):&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Chat%7BP%7D%28x%29%3D%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Cdelta%28x_i-x%29& alt=&\hat{P}(x)=\frac 1 n \sum_{i=1}^n \delta(x_i-x)& eeimg=&1&&&/p&&p&其中&img src=&https://www.zhihu.com/equation?tex=%5Cdelta%28%5Ccdot%29& alt=&\delta(\cdot)& eeimg=&1&&是狄拉克&img src=&https://www.zhihu.com/equation?tex=%5Cdelta& alt=&\delta& eeimg=&1&&函数,把这项替换到上面公式的P(x):&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Cbegin%7Balign%7D+D_%7BKL%7D%28P%7C%7CQ%29+%26%3D-%5Csum_%7Bx%5Cin%5COmega%7D%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Cdelta%28x_i-x%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5C%5C+%26+%3D-%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Csum_%7Bx%5Cin%5COmega%7D+%5Cdelta%28x_i-x%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5Cend%7Balign%7D& alt=&\begin{align} D_{KL}(P||Q) &=-\sum_{x\in\Omega}\frac 1 n \sum_{i=1}^n \delta(x_i-x)\log{Q(x)} +H(P) \\ & =-\frac 1 n \sum_{i=1}^n \sum_{x\in\Omega} \delta(x_i-x)\log{Q(x)} +H(P) \end{align}& eeimg=&1&&&/p&&p&因为是离散的采样值,所以&img src=&https://www.zhihu.com/equation?tex=%5Csum_%7Bx%5Cin%5COmega%7D+%5Cdelta%28x_i-x%29& alt=&\sum_{x\in\Omega} \delta(x_i-x)& eeimg=&1&&中只有&img src=&https://www.zhihu.com/equation?tex=x%3Dx_i& alt=&x=x_i& eeimg=&1&&的时候狄拉克&img src=&https://www.zhihu.com/equation?tex=%5Cdelta& alt=&\delta& eeimg=&1&&函数才为1,所以考虑&img src=&https://www.zhihu.com/equation?tex=x%3Dx_i& alt=&x=x_i& eeimg=&1&&时这项直接化为1:&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=D_%7BKL%7D%28P%7C%7CQ%29+%3D-%5Cfrac+1+n%5Csum_%7Bi%3D1%7D%5En+%5Clog%7BQ%28x_i%29%7D+%2BH%28P%29& alt=&D_{KL}(P||Q) =-\frac 1 n\sum_{i=1}^n \log{Q(x_i)} +H(P)& eeimg=&1&&&/p&&p&第一项正是似然的负对数形式。&/p&&p&说了些公式似乎跑得有点远了,其实要表达还是那个简单的意思:通过减小两个分布的差异可以让一个分布逼近另一个分布。仔细想想,这正是GAN里面adversarial loss的做法。&/p&&p&很多情况下我们面临的是更为复杂的分布,比如&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&上篇文章&/a&中的例子,又或是实际场景中更复杂的情况,比如生成不同人脸的图像。这时候,作为具有universal approximation性质的神经网络是一个看上去不错的选择[1]:&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-6fee20494f50baae2c1dc5fc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1561& data-rawheight=&549& class=&origin_image zh-lightbox-thumb& width=&1561& data-original=&https://pic4.zhimg.com/v2-6fee20494f50baae2c1dc5fc_r.jpg&&&/figure&&p&所以虽然GAN里面同时包含了生成网络和判别网络,但本质来说GAN的目的还是生成模型。从生成式模型的角度,Ian Goodfellow总结过一个和神经网络相关生成式方法的“家谱”[1]:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-8c6f1d8ee39dfbb4fcfb2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&771& data-rawheight=&498& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&https://pic1.zhimg.com/v2-8c6f1d8ee39dfbb4fcfb2_r.jpg&&&/figure&&p&在这其中,当下最流行的就是GAN和&b&V&/b&ariational &b&A&/b&uto&b&E&/b&ncoder(VAE),两种方法的一个简明示意如下[3]:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-380cde71a2f6ece28b4a97_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&568& data-rawheight=&274& class=&origin_image zh-lightbox-thumb& width=&568& data-original=&https://pic1.zhimg.com/v2-380cde71a2f6ece28b4a97_r.jpg&&&/figure&&p&本篇不打算展开讲什么是VAE,不过通过这个图,和名字中的autoencoder也大概能知道,VAE中生成的loss是基于重建误差的。而只基于重建误差的图像生成,都或多或少会有图像模糊的缺点,因为误差通常都是针对全局。比如基于MSE(Mean Squared Error)的方法用来生成超分辨率图像,容易出现下面的情况[4]:&/p&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-78f53b142fab51b0c09a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&892& data-rawheight=&598& class=&origin_image zh-lightbox-thumb& width=&892& data-original=&https://pic1.zhimg.com/v2-78f53b142fab51b0c09a1_r.jpg&&&/figure&&p&在这个二维示意中,真实数据分布在一个U形的流形上,而MSE系的方法因为loss的形式往往会得到一个接近平均值所在的位置(蓝色框)。&/p&&p&GAN在这方面则完爆其他方法,因为目标分布在流形上。所以只要大概收敛了,就算生成的图像都看不出是个啥,清晰度常常是有保证的,而这正是去除女优身上马赛克的理想特性!&/p&&p&&br&&/p&&h2&马赛克-&清晰画面:超分辨率(Super Resolution)问题&/h2&&p&说了好些铺垫,终于要进入正题了。首先明确,去马赛克其实是个图像超分辨率问题,也就是如何在低分辨率图像基础上得到更高分辨率的图像:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-31c84b42ad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&784& data-rawheight=&324& class=&origin_image zh-lightbox-thumb& width=&784& data-original=&https://pic2.zhimg.com/v2-31c84b42ad_r.jpg&&&/figure&&p&视频中超分辨率实现的一个套路是通过不同帧的低分辨率画面猜测超分辨率的画面,有兴趣了解这个思想的朋友可以参考我之前的一个答案:&a href=&https://www.zhihu.com/question//answer/& class=&internal&&如何通过多帧影像进行超分辨率重构? &/a& &/p&&p&不过基于多帧影像的方法对于女优身上的马赛克并不是很适用,所以这篇要讲的是基于单帧图像的超分辨率方法。&/p&&h2&SRGAN&/h2&&p&说到基于GAN的超分辨率的方法,就不能不提到SRGAN[4]:《Photo-Realistic Single Image &b&S&/b&uper-&b&R&/b&esolution Using a &b&G&/b&enerative &b&A&/b&dversarial&br&&b&N&/b&etwork》。这个工作的思路是:基于像素的MSE loss往往会得到大体正确,但是高频成分模糊的结果。所以只要重建低频成分的图像内容,然后靠GAN来补全高频的细节内容,就可以了:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-128029dfc7c470b07a4a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&446& data-rawheight=&131& class=&origin_image zh-lightbox-thumb& width=&446& data-original=&https://pic3.zhimg.com/v2-128029dfc7c470b07a4a1_r.jpg&&&/figure&&p&这个思路其实和最早基于深度网络的风格迁移的思路很像(有兴趣的读者可以参考我之前文章&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&瞎谈CNN:通过优化求解输入图像&/a&的最后一部分),其中重建内容的content loss是原始图像和低分辨率图像在VGG网络中的各个ReLU层的激活值的差异:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-331e02e394cfd04e7114a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&529& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&529& data-original=&https://pic3.zhimg.com/v2-331e02e394cfd04e7114a_r.jpg&&&/figure&&p&生成细节adversarial loss就是GAN用来判别是原始图还是生成图的loss:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-fa5af2a10fe9a4dadfb04_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&394& data-rawheight=&89& class=&content_image& width=&394&&&/figure&&p&把这两种loss放一起,取个名叫perceptual loss。训练的网络结构如下:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-17861edeb4bcfae4e9f369_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&780& data-rawheight=&400& class=&origin_image zh-lightbox-thumb& width=&780& data-original=&https://pic1.zhimg.com/v2-17861edeb4bcfae4e9f369_r.jpg&&&/figure&&p&正是上篇文章中讲过的C-GAN,条件C就是低分辨率的图片。SRGAN生成的超分辨率图像虽然PSNR等和原图直接比较的传统量化指标并不是最好,但就视觉效果,尤其是细节上,胜过其他方法很多。比如下面是作者对比bicubic插值和基于ResNet特征重建的超分辨率的结果:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f3b4376938ffcbd23c42d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&981& data-rawheight=&392& class=&origin_image zh-lightbox-thumb& width=&981& data-original=&https://pic4.zhimg.com/v2-f3b4376938ffcbd23c42d_r.jpg&&&/figure&&p&可以看到虽然很多细节都和原始图片不一样,不过看上去很和谐,并且细节的丰富程度远胜于SRResNet。这些栩栩如生的细节,可以看作是GAN根据学习到的分布信息“联想”出来的。&/p&&p&对于更看重“看上去好看”的超分辨率应用,SRGAN显然是很合适的。当然对于一些更看重重建指标的应用,比如超分辨率恢复嫌疑犯面部细节,SRGAN就不可以了。&/p&&h2&pix2pix&/h2&&p&虽然专门用了一节讲SRGAN,但本文用的方法其实是pix2pix[5]。这项工作刚在arxiv上发布就引起了不小的关注,它巧妙的利用GAN的框架解决了通用的Image-to-Image translation的问题。举例来说,在不改变分辨率的情况下:把照片变成油画风格;把白天的照片变成晚上;用色块对图片进行分割或者倒过来;为黑白照片上色;…每个任务都有专门针对性的方法和相关研究,但其实总体来看,都是像素到像素的一种映射啊,其实可以看作是一个问题。这篇文章的巧妙,就在于提出了pix2pix的方法,一个框架,解决所有这些问题。方法的示意图如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-e2ea753b7b0d7f18abee3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&485& data-rawheight=&437& class=&origin_image zh-lightbox-thumb& width=&485& data-original=&https://pic1.zhimg.com/v2-e2ea753b7b0d7f18abee3_r.jpg&&&/figure&&p&就是一个Conditional GAN,条件C是输入的图片。除了直接用C-GAN,这项工作还有两个改进:&/p&&p&1)&b&利用U-Net结构生成细节更好的图片&/b&[6]&/p&&figure&&img src=&https://pic4.zhimg.com/v2-beb074bebbfa0db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&907& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&907& data-original=&https://pic4.zhimg.com/v2-beb074bebbfa0db_r.jpg&&&/figure&&p&U-Net是德国Freiburg大学模式识别和图像处理组提出的一种全卷积结构。和常见的先降采样到低维度,再升采样到原始分辨率的编解码(Encoder-Decoder)结构的网络相比,U-Net的区别是加入skip-connection,对应的feature maps和decode之后的同样大小的feature maps按通道拼(concatenate)一起,用来保留不同分辨率下像素级的细节信息。U-Net对提升细节的效果非常明显,下面是pix2pix文中给出的一个效果对比:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-2fb4ddb2fdc24eea31eea_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&563& data-rawheight=&307& class=&origin_image zh-lightbox-thumb& width=&563& data-original=&https://pic4.zhimg.com/v2-2fb4ddb2fdc24eea31eea_r.jpg&&&/figure&&p&可以看到,各种不同尺度的信息都得到了很大程度的保留。&/p&&p&2)&b&利用马尔科夫性的判别器(PatchGAN)&br&&/b&&/p&&p&pix2pix和SRGAN的一个异曲同工的地方是都有用重建解决低频成分,用GAN解决高频成分的想法。在pix2pix中,这个思想主要体现在两个地方。一个是loss函数,加入了L1 loss用来让生成的图片和训练的目标图片尽量相似,而图像中高频的细节部分则交由GAN来处理:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cb180ad03d8a72e7883285b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&447& data-rawheight=&51& class=&origin_image zh-lightbox-thumb& width=&447& data-original=&https://pic4.zhimg.com/v2-cb180ad03d8a72e7883285b_r.jpg&&&/figure&&p&还有一个就是&b&PatchGAN&/b&,也就是具体的GAN中用来判别是否生成图的方法。PatchGAN的思想是,既然GAN只负责处理低频成分,那么判别器就没必要以一整张图作为输入,只需要对NxN的一个图像patch去进行判别就可以了。这也是为什么叫Markovian discriminator,因为在patch以外的部分认为和本patch互相独立。&/p&&p&具体实现的时候,作者使用的是一个NxN输入的全卷积小网络,最后一层每个像素过sigmoid输出为真的概率,然后用BCEloss计算得到最终loss。这样做的好处是因为输入的维度大大降低,所以参数量少,运算速度也比直接输入一张快,并且可以计算任意大小的图。作者对比了不同大小patch的结果,对于256x256的输入,patch大小在70x70的时候,从视觉上看结果就和直接把整张图片作为判别器输入没什么区别了:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-5172ca51efb4ee3e453b15_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&107& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic1.zhimg.com/v2-5172ca51efb4ee3e453b15_r.jpg&&&/figure&&h2&生成带局部马赛克的训练数据&/h2&&p&利用pix2pix,只要准备好无码和相应的有码图片就可以训练去马赛克的模型了,就是这么简单。那么问题是,如何生成有马赛克的图片?&/p&&p&有毅力的话,可以手动加马赛克,这样最为精准。这节介绍一个不那么准,但是比随机强的方法:利用分类模型的激活区域进行自动马赛克标注。&/p&&p&基本思想是利用一个可以识别需要打码图像的分类模型,提取出这个模型中对应类的CAM(&b&C&/b&lass &b&A&/b&ctivation &b&M&/b&ap)[7],然后用马赛克遮住响应最高的区域即可。这里简单说一下什么是CAM,对于最后一层是全局池化(平均或最大都可以)的CNN结构,池化后的feature map相当于是做了个加权相加来计算最终的每个类别进入softmax之前的激活值。CAM的思路是,把这个权重在池化前的feature map上按像素加权相加,最后得到的单张的激活图就可以携带激活当前类别的一些位置信息,这相当于一种弱监督(classification--&localization):&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fd28f0b871bd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&660& data-rawheight=&314& class=&origin_image zh-lightbox-thumb& width=&660& data-original=&https://pic4.zhimg.com/v2-fd28f0b871bd_r.jpg&&&/figure&&p&上图是一个CAM的示意,用澳洲梗类别的CAM,放大到原图大小,可以看到小狗所在的区域大致是激活响应最高的区域。&/p&&p&那么就缺一个可以识别XXX图片的模型了,网上还恰好就有个现成的,yahoo于2016年发布的开源色情图片识别模型Open NSFW(&b&N&/b&ot &b&S&/b&afe &b&F&/b&or &b&W&/b&ork):&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/yahoo/open_nsfw& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&yahoo/open_nsfw&/a&&/p&&p&CAM的实现并不难,结合Open NSFW自动打码的代码和使用放在了这里:&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/frombeijingwithlove/dlcv_for_beginners/tree/master/random_bonus/generate_mosaic_for_porno_images& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&给XX图片生成马赛克&/a&&/p&&p&&br&&/p&&p&(成功打码的)效果差不多是下面这样子:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cbefa39dc983f2645dd8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&768& data-rawheight=&256& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic4.zhimg.com/v2-cbefa39dc983f2645dd8_r.jpg&&&/figure&&h2&去除(爱情)动作片中的马赛克&/h2&&p&这没什么好说的了,一行代码都不用改,只需要按照前面的步骤把数据准备好,然后按照pix2pix官方的使用方法训练就可以了:&/p&&p&Torch版pix2pix:&a href=&https://link.zhihu.com/?target=https%3A//github.com/phillipi/pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&phillipi/pix2pix&/a&&/p&&p&pyTorch版pix2pix(Cycle-GAN二合一版):&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/pytorch-CycleGAN-and-pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/pytorch-CycleGAN-and-pix2pix&/a&&/p&&p&从D盘里随随便便找了几千张图片,用来执行了一下自动打码和pix2pix训练(默认参数),效果是下面这样:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-9f52b17c0e1296767cbfbfafc290a5bd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&814& data-rawheight=&691& class=&origin_image zh-lightbox-thumb& width=&814& data-original=&https://pic2.zhimg.com/v2-9f52b17c0e1296767cbfbfafc290a5bd_r.jpg&&&/figure&&p&什么?你问说好给女优去马赛克呢?女优照片呢?&/p&&figure&&img src=&https://pic4.zhimg.com/v2-480fb8a4dcfc7a4f92ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&75& data-rawheight=&60& class=&content_image& width=&75&&&/figure&&p&还是要说一下,在真人照片上的效果比蘑菇和花强。&/p&&h2&对偶学习(Dual Learning)&/h2&&p&去马赛克已经讲完了,接下来就是给女孩穿(tuo)衣服了,动手之前,还是先讲一下铺垫:&b&对偶学习&/b&和&b&Cycle-GAN&/b&。&/p&&p&对偶学习是MSRA于2016年提出的一种用于机器翻译的增强学习方法[8],目的是解决海量数据配对标注的难题,个人觉得算是一种弱监督方法(不过看到大多数文献算作无监督)。以机器翻译为例,对偶学习基本思想如下图[9]:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c4b1eeda364fb6c9bada02f3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&866& data-rawheight=&399& class=&origin_image zh-lightbox-thumb& width=&866& data-original=&https://pic3.zhimg.com/v2-c4b1eeda364fb6c9bada02f3_r.jpg&&&/figure&&p&左边的灰衣男只懂英语,右边的黑衣女只懂中文,现在的任务就是,要学习如何翻译英语到中文。对偶学习解决这个问题的思路是:给定一个模型&img src=&https://www.zhihu.com/equation?tex=f%3Ax%5Crightarrow+y& alt=&f:x\rightarrow y& eeimg=&1&&一上来无法知道f翻译得是否正确,但是如果考虑上&img src=&https://www.zhihu.com/equation?tex=f& alt=&f& eeimg=&1&&的对偶问题&img src=&https://www.zhihu.com/equation?tex=g%3Ay%5Crightarrow+x& alt=&g:y\rightarrow x& eeimg=&1&&,那么我可以尝试翻译一个英文句子到中文,再翻译回来。这种转了一圈的结果&img src=&https://www.zhihu.com/equation?tex=x%27%3Dg%28f%28x%29%29& alt=&x'=g(f(x))& eeimg=&1&&,灰衣男是可以用一个标准(BLEU)判断x'和x是否一个意思,并且把结果的一致性反馈给这两个模型进行改进。同样的,从中文取个句子,这样循环翻译一遍,两个模型又能从黑衣女那里获取反馈并改进模型。其实这就是强化学习的过程,每次翻译就是一个action,每个action会从环境(灰衣男或黑衣女)中获取reward,对模型进行改进,直至收敛。&/p&&p&也许有的人看到这里会觉得和上世纪提出的Co-training很像,这个在知乎上也有讨论:&/p&&p&&a href=&https://www.zhihu.com/question/& class=&internal&&如何理解刘铁岩老师团队在NIPS 2016上提出的对偶学习(Dual Learning)?&/a&&/p&&p&个人觉得还是不一样的,Co-Training是一种multi-view方法,比如一个输入x,如果看作是两个拼一起的特征&img src=&https://www.zhihu.com/equation?tex=x%3D%28x_1%2Cx_2%29& alt=&x=(x_1,x_2)& eeimg=&1&&,并且假设&img src=&https://www.zhihu.com/equation?tex=x_1& alt=&x_1& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=x_2& alt=&x_2& eeimg=&1&&互相独立,那么这时候训练两个分类器&img src=&https://www.zhihu.com/equation?tex=f_1%28%5Ccdot%29& alt=&f_1(\cdot)& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=f_2%28%5Ccdot%29& alt=&f_2(\cdot)& eeimg=&1&&对于任意样本x应该有&img src=&https://www.zhihu.com/equation?tex=f_1%28x_1%29%3Df_2%28x_2%29& alt=&f_1(x_1)=f_2(x_2)& eeimg=&1&&。这对没有标注的样本是很有用的,相当于利用了同一个样本分类结果就应该一样的隐含约束。所以Co-Training的典型场景是少量标注+大量未标注的半监督场景。并且&img src=&https://www.zhihu.com/equation?tex=f_1& alt=&f_1& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=f_2& alt=&f_2& eeimg=&1&&其实是两个不同,但是domain指向相同的任务。而Dual Learning中&img src=&https://www.zhihu.com/equation?tex=f& alt=&f& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=g& alt=&g& eeimg=&1&&是对偶任务,利用的隐含约束是&img src=&https://www.zhihu.com/equation?tex=x%5Crightarrow+y%5Crightarrow+x& alt=&x\rightarrow y\rightarrow x& eeimg=&1&&的cycle consistency。对输入的特征也没有像Co-Training有那么明确的假设,学习方法上也不一样,Dual Learning算是强化学习。&/p&&h2&CycleGAN和未配对图像翻译(Unpaired Image-to-Image Translation)&/h2&&p&CycleGAN,翻译过来就是:轮着干,是结合了对偶学习和GAN一个很直接而巧妙的想法[10],示意图如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-9e7396ebccb7c42302fc97_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&838& data-rawheight=&216& class=&origin_image zh-lightbox-thumb& width=&838& data-original=&https://pic4.zhimg.com/v2-9e7396ebccb7c42302fc97_r.jpg&&&/figure&&p&X和Y分别是两种不同类型图的集合,比如穿衣服的女优和没穿衣服的女优。所以给定一张穿了衣服的女优,要变成没穿衣服的样子,就是个图片翻译问题。CycleGAN示意图中(b)和(c)就是Dual Learning:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-de51cac58b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&347& data-rawheight=&62& class=&content_image& width=&347&&&/figure&&p&在Dual Learning基础上,又加入了两个判别器&img src=&https://www.zhihu.com/equation?tex=D_X& alt=&D_X& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=D_Y& alt=&D_Y& eeimg=&1&&用来进行对抗训练,让翻译过来的图片尽量逼近当前集合中的图片:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e0ea7a6b38bf2a20cea4ea6f741a4c67_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&442& data-rawheight=&59& class=&origin_image zh-lightbox-thumb& width=&442& data-original=&https://pic3.zhimg.com/v2-e0ea7a6b38bf2a20cea4ea6f741a4c67_r.jpg&&&/figure&&p&全考虑一起,最终的loss是:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e6d99e7edea969da3dad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&357& data-rawheight=&87& class=&content_image& width=&357&&&/figure&&p&也许有人会问,那不加cycle-consistency,直接用GAN学习一个&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&的映射,让生成的Y的样本尽量毕竟Y里本身的样本可不可以呢?这个作者在文中也讨论了,会产生GAN训练中容易发生的mode collapse问题。mode collapse问题的一个简单示意如下[1]:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-309fce6329592babb784ed_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&262& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic1.zhimg.com/v2-309fce6329592babb784ed_r.jpg&&&/figure&&p&上边的是真实分布,下边的是学习到的分布,可以看到学习到的分布只是完整分布的一部分,这个叫做partial mode collapse,是训练不收敛情况中常见的一种。如果是完全的mode collapse,就是说生成模型得到的都是几乎一样的输出。而加入Cycle-consistency会让一个domain里不同的样本都尽量映射到另一个domain里不同的地方,理想情况就是双射(bijection)。直观来理解,如果通过&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&都映射在Y中同一个点,那么这个点y通过&img src=&https://www.zhihu.com/equation?tex=Y%5Crightarrow+X& alt=&Y\rightarrow X& eeimg=&1&&映射回来显然不可能是多个不同的x,所以加入cycle-consistency就帮助避免了mode collapse。这个问题在另一篇和CycleGAN其实本质上没什么不同的方法DiscoGAN中有更详细的讨论[11],有兴趣的话可以参考。&/p&&p&&br&&/p&&p&有一点值得注意的是,虽然名字叫CycleGAN,并且套路也和C-GAN很像,但是其实只有adversarial,并没有generative。因为严格来说只是学习了&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=Y%5Crightarrow+X& alt=&Y\rightarrow X& eeimg=&1&&的mapping,所谓的generative network里并没有随机性。有一个和CycleGAN以及DiscoGAN其实本质上也没什么不同的方法叫DualGAN[12],倒是通过dropout把随机性加上了。不过所有加了随机性产生的样本和原始样本间的cycle-consistency用的还是l1 loss,总觉得这样不是很对劲。当然现在GAN这么热门,其实只要是用了adversarial loss的基本都会取个名字叫XXGAN,也许是可以增加投稿命中率。&/p&&p&另外上节中提到了Co-Training,感觉这里也应该提一下CoGAN[13],因为名字有些相似,并且也可以用于未配对的图像翻译。CoGAN的大体思想是:如果两个Domain之间可以互相映射,那么一定有一些特征是共有的。比如男人和女人,虽然普遍可以从长相区分,但不变的是都有两个眼睛一个鼻子一张嘴等等。所以可以在生成的时候,把生成共有特征和各自特征的部分分开,示意图如下:&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-57eaadc8cec5190bfd30_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&758& data-rawheight=&207& class=&origin_image zh-lightbox-thumb& width=&758& data-original=&https://pic4.zhimg.com/v2-57eaadc8cec5190bfd30_r.jpg&&&/figure&&p&其实就是两个GAN结构,其中生成网络和判别网络中比较高层的部分都采用了权值共享(虚线相连的部分),没有全职共享的部分分别处理不同的domain。这样每次就可以根据训练的domain生成一个样本在两个domain中不同的对应,比如戴眼镜和没戴眼镜:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-356a6118ccf3e8e3bf1c7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&791& data-rawheight=&267& class=&origin_image zh-lightbox-thumb& width=&791& data-original=&https://pic2.zhimg.com/v2-356a6118ccf3e8e3bf1c7_r.jpg&&&/figure&&p&分别有了共有特征和各自domain特征,那么做mapping的思路也就很直接了[14]:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8ac50600e40feaac345e09bd7e05a83d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&771& data-rawheight=&210& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&https://pic3.zhimg.com/v2-8ac50600e40feaac345e09bd7e05a83d_r.jpg&&&/figure&&p&在GAN前边加了个domain encoder,然后对每个domain能得到三种样本给判别器区分:直接采样,重建采样,从另一个domain中transfer后的重建采样。训练好之后,用一个domain的encoder+另一个domain的generator就很自然的实现了不同domain的转换。用在图像翻译上的效果如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-612e9cf5e125fd626be7db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&444& data-rawheight=&544& class=&origin_image zh-lightbox-thumb& width=&444& data-original=&https://pic2.zhimg.com/v2-612e9cf5e125fd626be7db_r.jpg&&&/figure&&p&还有个巧妙的思路,是把CoGAN拆开,不同domain作为C-GAN条件的更加显式的做法[15]:&/p&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ddec16d502c94f91ea35_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&883& data-rawheight=&398& class=&origin_image zh-lightbox-thumb& width=&883& data-original=&https://pic1.zhimg.com/v2-ddec16d502c94f91ea35_r.jpg&&&/figure&&p&第一步用噪声Z作为和domain无关的共享表征对应的latent noise,domain信息作为条件C训练一个C-GAN。第二步,训练一个encoder,利用和常见的encode-decode结构相反的decode(generate)-encode结构。学习好的encoder可以结合domain信息,把输入图像中和domain无关的共享特征提取出来。第三步,把前两步训练好的encoder和decoder(generator)连一起,就可以根据domain进行图像翻译了。&/p&&p&CoGAN一系的方法虽然结构看起来更复杂,但个人感觉理解起来要比dual系的方法更直接,并且有latent space,可解释性和属性对应也好一些。&/p&&p&又扯远了,还是回到正题:&/p&&p&&br&&/p&&h2&给女优穿上衣服&/h2&&p&其实同样没什么好说的,Cycle-GAN和pix2pix的作者是一拨人,文档都写得非常棒,准备好数据,分成穿衣服的和没穿衣服的两组,按照文档的步骤训练就可以:&/p&&p&Torch版Cycle-GAN:&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/CycleGAN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/CycleGAN&/a&&/p&&p&pyTorch版Cycle-GAN(pix2pix二合一版):&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/pytorch-CycleGAN-and-pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/pytorch-CycleGAN-and-pix2pix&/a&&/p&&p&Cycle-GAN收敛不易,我用了128x128分辨率训练了穿衣服和没穿衣服的女优各一千多张,同样是默认参数训练了120个epoch,最后小部分成功“穿衣服”的结果如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fee34d66c386e0e01e5804_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1117& data-rawheight=&192& class=&origin_image zh-lightbox-thumb& width=&1117& data-original=&https://pic4.zhimg.com/v2-fee34d66c386e0e01e5804_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-de57c5ebefa4251ee3caa1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1117& data-rawheight=&192& class=&origin_image zh-lightbox-thumb& width=&1117& data-original=&https://pic4.zhimg.com/v2-de57c5ebefa4251ee3caa1_r.jpg&&&/figure&&p&虽然都有些突兀,但好歹是穿上衣服了。注意马赛克不是图片里就有的,是我后来加上去的。&/p&&p&那么,脱衣服的例子在哪里?&/p&&figure&&img src=&https://pic4.zhimg.com/v2-480fb8a4dcfc7a4f92ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&75& data-rawheight=&60& class=&content_image& width=&75&&&/figure&&h2&参考文献&/h2&&p&[1] I. Goodfellow. Nips 2016 tutorial: Generative adversarial networks. arXiv preprint arXiv:, 2016.&/p&&p&[2] A. B. L. Larsen, S. K. S?nderby, Generating Faces with Torch. &a href=&https://link.zhihu.com/?target=http%3A//torch.ch/blog//gan.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Torch | Generating Faces with Torch&/a&&/p&&p&[3] A. B. L. Larsen, S. K. S?nderby, H. Larochelle, and O. Winther. Autoencoding beyond pixels using a&br&learned similarity metric. In ICML, pages , 2016.&br&&/p&&p&[4] C. Ledig, L. Theis, F. Huszar, J. Caballero, A. Aitken, A. Tejani, J. Totz, Z. Wang, and W. Shi. Photo-realistic single image super-resolution using a generative adversarial network. arXiv:, 2016.&/p&&p&[5] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros. Image-to-image translation with conditional adversarial networks. arxiv, 2016. &/p&&p&[6] O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. In MICCAI, pages 234–241. Springer, 2015.&/p&&p&[7] B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, and A. Torralba. Learning deep features for discriminative localization. arXiv preprint arXiv:, 2015.&/p&&p&[8] He, D., Xia, Y., Qin, T., Wang, L., Yu, N., Liu, T.-Y., and Ma, W.-Y. (2016a). Dual learning for machine translation. In the Annual Conference on Neural Information Processing Systems (NIPS), 2016.&/p&&p&&br&&/p&&p&[9] &a href=&https://link.zhihu.com/?target=http%3A//www.dsrg.stuorg.iastate.edu/wp-content/uploads/2017/02/dual-learning_-pushing-the-new-frontier-of-artificial-intelligence-tieyan-liu.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&& Tie-Yan Liu, Dual Learning: Pushing the New Frontier of Artificial Intelligence, MIFS 2016&/a& &/p&&p&[10] J.-Y. Zhu, T. Park, P. Isola, and A. A. Efros. Unpaired image-to-image translation using cycle-consistent adversarial networkss. arXiv preprint arXiv:, 2017.&/p&&p&[11] T. Kim, M. Cha, H. Kim, J. Lee, and J. Kim. Learning to Discover Cross-Domain Relations with Generative Adversarial Networks. ArXiv e-prints, Mar. 2017.&/p&&p&&br&&/p&&p&[12] Z. Yi, H. Zhang, P. T. Gong, et al. DualGAN: Unsupervised dual learning for image-to-image translation. arXiv preprint arXiv:, 2017.&/p&&p&&br&&/p&&p&[13] M.-Y. Liu and O. Tuzel. Coupled generative adversarial networks. In Advances in Neural Information Processing Systems (NIPS), 2016.&/p&&p&[14] M.-Y. Liu, T. Breuel, and J. Kautz. Unsupervised image-to-image translation networks. arXiv preprint arXiv:, 2017.&/p&&p&[15] Dong, H., Neekhara, P., Wu, C., Guo, Y.: Unsupervised image-to-image translation with generative adversarial networks. arXiv preprint arXiv:, 2017.&/p&&p&=========== 分割线: ===========&/p&&p&上周日发的时候也想到了可能会有许多人对这个话题感兴趣,但没想到超过了1.5W赞这么多,大概看了看评论,做一些补充:&/p&&p&&b&1) &/b&马赛克训练数据:对于一般的机器学习问题,都是分布越简单越容易,遵循这个原则,我用的约束是单人照片,具体方法是:先找一个Pascal VOC训练好的SSD代码,然后SSD筛选了一批每张图里只能检测到一个人的。&/p&&p&最后在真人照片上的效果看上去还是不错的,我没有做过量化评估,大体来说看上去挺像的要超过一半,非常逼真的可能有5%~10%。两人以上战斗的动作画面我没有评估过。&/p&&p&&b&2)&/b&穿(tuo)衣训练数据:因为收敛很难,所以数据的加了更多约束:只用女性单人正面照片。同样通过SSD检测出单人照片,同时考虑person框的宽高比小于1的且框内能检测到人脸的(OpenCV的人脸检测)。这样尽量筛选出一批面向镜头,身体占画面比接近的照片。&/p&&p&最后的效果我在原文中也提到过,只有小部分能成功穿上(tuo)衣服,具体我也没有量化统计过,大概100张里两三张吧,大部分都是身上出现了看上去有点像衣服的线条或是另一个人的胸部。考虑到我最后筛选出的图片人物占画面比仍然有很大的变化,很可能我的模型就是遇到了文中提到的partial mode collapse的问题。&/p&&p&如果有更好的办法筛选出人物大小差不多的照片,效果应该能提升不少。比如我在用SSD筛选的时候如果考虑宽高比更小一些,筛选出的照片看上去会更加一致,不过我资源不太够,这样做后训练集就只有不到300张,资源够的老司机们有兴趣可以试试。&/p&&p&&br&&/p&&p&&b&3)&/b&预训练模型有没有?有,但是我研读了中华人民共和国刑法第三百六十三、三百六十四和三百六十六条,完全读不懂,所以还是不提供。再说就算我提供了,根据1)和2),看到你想看的内容也是需要运气的。&/p&&p&另外特别感谢赞赏的知友们,这篇文章是想说&b&书中自有颜如玉&/b&,而知友们的赞赏让我知道&b&书中真有黄金屋&/b&,古人诚不我欺…&/p&
作为一名久经片场的老司机,早就想写一些探讨驾驶技术的文章。这篇就介绍利用生成式对抗网络(GAN)的两个基本驾驶技能: 1) 去除(爱情)动作片中的马赛克2) 给(爱情)动作片中的女孩穿(tuo)衣服 生成式模型上一篇《》中已经简单介…
蟹药。我是十三年的老粉丝了,今年快过年的时候在美国和他共处了一整天,非常美好的回忆。&br&看着他走路的时候,脊背非常僵硬,我问他:“你的脊柱炎还没治好吗?”&br&他咂吧一下嘴:“治不好的,唉,老人家了。”&br&我一阵心酸,又问:“那开演唱会的时候怎么办?总是要蹦蹦跳跳的。”&br&他说:“吃药,镇痛,不然粉丝们来看什么。”&br&然后自嘲地一笑。&br&而我眼泪几乎都忍不住。&br&我算是见过一些名人了,负责任地讲,眼神像他那般干净的人,娱乐圈里一只手都能数的过来,&br&更何况他已经成名这么久,名气这么大。&br&他真的是一个脚踏实地,全凭才华和努力的人,我少年时期对他是喜欢,现在更多的是钦佩。&br&如果一辈子只能当一个人的粉丝,我愿意选择那个人是:周杰伦。&br&最后炫耀一下合影。hia hia hia&br&&figure&&img src=&https://pic4.zhimg.com/f6dfe11ff_b.jpg& data-rawwidth=&640& data-rawheight=&853& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/f6dfe11ff_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/29b2758ade5ac4b9d3259_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/29b2758ade5ac4b9d3259_r.jpg&&&/figure&
蟹药。我是十三年的老粉丝了,今年快过年的时候在美国和他共处了一整天,非常美好的回忆。 看着他走路的时候,脊背非常僵硬,我问他:“你的脊柱炎还没治好吗?” 他咂吧一下嘴:“治不好的,唉,老人家了。” 我一阵心酸,又问:“那开演唱会的时候怎么办…
12月5日测试玩家,前天下公测版。&br&刚出那几天跟主播t队到少允,后面王者冲高分就没玩。&br&这几天学校网卡可以玩平安京,正在冲分。&br&总结:平安京缺乏太大的游戏性 注定不可能火爆&br&(我是经过很认真地体验和想过,得出这个结论)&br&他会走上dota2开始的那条路,然后无疾而终。&br&&br&分析:&br&首先是游戏定位,王者荣耀这一点很聪明,手机游戏就是要快速游戏,方便操作,接纳新手。所以杀人容易,对线方便,大局观简单。&br&请记住我陈述的以上三点。&br&这三点,平安京为了和农药走不同方向,做出了很大更改。&br&平安京强调了部分对线,加大了杀人难度,地图大变数多大局观要求更详细。&br&这造成的就是新手接受不易。&br&虽然网易也采取了措施让低端局没有迷雾和踩眼,但是熟悉了农药那一套的新手玩家依旧接受不了平安京的游戏模式。&br&这一点跟dota很像,新手接受不易。&br&这是难度问题,接下来说另一个我觉得很重要的问题&br&平安京不好玩。 &br&dota好玩在几个刺激点。一装备很关键,fw前七分钟可以死 可以被压,但是一旦憋出跳刀就有翻的能力。二英雄的技能没有装备成长性,所以固定伤害前期伤害高,后期被动作用大,这就造成前期酱油法师到处杀,后期carry到处干。大家都有自己爽的时候。&br&这些平安京都没有,它延续了lol的模式,弱化道具的作用,把技能设计成成长型伤害。&br&所以你在游戏里的感受,我有钱没用装备只是提升属性引起不了质变,我也很难杀人不像农药dota那么爽快刺激。&br&这样的体验因为整体游戏时间增长而曾长。&br&很多人可能说 平安京很好玩啊,杀人很容易啊balabala。&br&你跟农药dota比一比。&br&第三个问题,平安京英雄有问题。&br&没有让人觉得好玩的机制。&br&露娜你知道月下无限连,爽吧。&br&貂蝉你满cd,开大2121秀,爽吧。&br&李白飘逸灵动1123完了1回去秀翻对面,爽吧。&br&宫本开大adc下来21aaa,爽吧!&br&你要说dota,&br&你就说sf三炮秀,跳刀隐刀bkb大,爽不爽!&br&火女跳刀tre秒杀爽不爽!&br&小鱼隐刀aecraaa爽不爽!&br&这些平安京都没有。&br&平安京杀人难。一个是英雄血量多,一}

我要回帖

更多关于 如图直线y3分之根号3x 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信