国产芯片黑貂手写板8805驱动,有那几家公司品质做的比较好?

我正好是一家外资芯片公司的工程经理,也参与我们的招聘,说两句这两年现状吧。&br&其实不是不给本科机会,而是现在研究生实在太多。。&br&举个新鲜的例子,刚去了几个985招聘归来,职位大概分芯片,系统,软件三大类吧,平均每个学校笔试题发出去300多份(也有同城或同省其他985的),99%是985硕,而且绝大部分本科也是985,面试人数大概是取其中的10%~15%。国庆后还要去几个。&br&让我们在三十分钟内判断出你的潜力,真的很难,因为我们手里掌握的资料真的很有限,大家之前也不认识你,又不能打个卦,批个八字什么的,只能从很多硬指标下手,笔试成绩,学业成绩,有经验的看经验,没什么经验的就综合你的本科,硕士成绩,擅长的科目进行技术面,沟通感受,等等吧。。。&br&其实要新生带着多少能力进来并不现实,其实都是白纸,我们更多看中的还是基础潜力,也就是赌带你半年,一年以后你可能具备的能力,这点来讲我是很喜欢应届生的,有活力,冲劲,脑子聪明灵活,可塑性好,带三年经常能爆社招过来五六年的。&br&现在不像十年前了,我们那会儿本科还是很好找的。其实你本科211,起点也不错了,真想做这行,努力考个985研究生,在教研室攒三年经验出来也不错的。&br&有人让你找CS工作,哈哈,BAT以及其他子弹充足的好互联网公司,参加笔试,面试的研究生队伍更长,CS本就是很多学校的大系,何况还有不少是从电子,机械,自动化过去想转行的,可想而知,而且今年大多数公司都在控制应届招聘人数。。初创公司风险太大,朝不保夕的,皮包公司也多,守着码农出了货拿着代码跑路的可不是新鲜事,自己衡量吧。
我正好是一家外资芯片公司的工程经理,也参与我们的招聘,说两句这两年现状吧。其实不是不给本科机会,而是现在研究生实在太多。。举个新鲜的例子,刚去了几个985招聘归来,职位大概分芯片,系统,软件三大类吧,平均每个学校笔试题发出去300多份(也有同城…
来自子话题:
MATLAB2014a以上的版本在Simulink里面会有一个叫model based design的feature。有了它,你大概只要C或者C++写一点读传感器、读遥控器接收端以及控制电机的库,放进s-function builder,再用Simulink自带的blocks就可以搞一个具有相当复杂度的控制程序了。四旋翼根本不在话下,当然前提是你得知道四旋翼的控制算法。
MATLAB2014a以上的版本在Simulink里面会有一个叫model based design的feature。有了它,你大概只要C或者C++写一点读传感器、读遥控器接收端以及控制电机的库,放进s-function builder,再用Simulink自带的blocks就可以搞一个具有相当复杂度的控制程序了。四…
一句话总结,3D Xpoint是&b&&u&可堆叠(stackable),无晶体管(without transistor)的非易失性存储(non volatile)&/u&&/b&。看起来很美的各种NVM,尤其是PCM,学术界火了这么几年都没能在工业界有什么实质性的实现和推进,3D Xpoint无疑是相当振奋人心的。NVM,大容量内存,flashc。。。这几年火的点都被3D Xpoint覆盖到了。按intel的说法,3D Xpoint可能是1989年NAND Flash诞生以来的最大突破了,但实现材料和技术细节不得而知(有人推测是RRAM,也有人认为是PCM,&a href=&///?target=http%3A///article/2953829/solid-state-drives/intel-and-micron-3d-xpoint-memory-what-the-heck-is-it-itbwcw.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computerworld&i class=&icon-external&&&/i&&/a& 声称被告知确定不是RRAM)。也只能就放出来的性能数据(都在最后图里)说话了:&br&&br&(1)&b&速度:&/b&比NAND快1000倍。&br&至于intel-micron拿什么做baseline以及怎么做的比较也同样不得而知(不给baseline的normalize都是耍流氓^_^),这里拿当前主流数据对比感受下。PCIe NAND 读大概100微秒,写20微秒左右,快1000倍的话读速度就是100纳秒,而现在DRAM的读写大概50纳秒,所以读速度还是赶不上DRAM(当然,比PCM等NVM已经好太多了);并且声称的快1000倍感觉不可能或者短时间内很难达到,能达到MLC PCM的250纳秒(注:常用论文参数)读速度就不错了。如果真的就是3D PCM的话,那几百纳秒的写速度也相当惊人了(也不排除是使用RAM作buffer的惯用伎俩达到),毕竟PCM的slow write是个大问题。&br&结论:&u&访问速度比NAND快很多,但比DRAM还差不少,很难全面取代DRAM。&/u&&br&&br&找到下面&a href=&///?target=http%3A//www.theregister.co.uk//having_a_looks_at_imtfs_crosspoint/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这张图&i class=&icon-external&&&/i&&/a&基本能表达我的意思,就是速度比NAND快很多,但会比DRAM慢不少:&br&&img src=&/1886eca54bc23ad5ca22a044c8014d63_b.jpg& data-rawwidth=&648& data-rawheight=&254& class=&origin_image zh-lightbox-thumb& width=&648& data-original=&/1886eca54bc23ad5ca22a044c8014d63_r.jpg&&&br&(2)&b&密度:&/b&比DRAM高8-10倍&br&原因主要在于stackable和无晶体管,所以同样面积可以放更多的cell;根据JEDEC最新的DDR4标准,一个DRAM chip/die容量是2-16Gb(三星目前有4Gb的), 而intel给出的一个3D Xpoint die是 &a href=&///?target=http%3A///community/intel_newsroom/blog//intel-and-micron-produce-breakthrough-memory-technology& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&128Gb&i class=&icon-external&&&/i&&/a&,感觉密度8-10倍于DRAM应该靠谱,但高密度的诱惑力可能不是很大,毕竟DRAM也可以stack而且也才刚刚开始;另,注意NAND一个cell可以容纳2-3bit而3D Xpoint只能一个bit,估计density会错很远,NAND chip/die 容量可以几十倍乃至百倍于DRAM(micron目前有2Tb的),3D Xpoint怕是望尘莫及。想到去年Sandisk出的&a href=&///?target=http%3A///assets/docs/SanDisk%2520ULLtraDIMM%2520SSDs%2520Datasheet%0-%2520FINAL.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ULLtraDIMM&i class=&icon-external&&&/i&&/a&,使用DRAM接口的SSD,容量200-400G并可以线性增长,3D Xpoint很大程度上拿容量换取了速度(当然,两者实现介质完全不同)。&br&结论:&u&密度比DRAM高不少,但比NAND差一大截。&/u&&br&&br&(3)&b&寿命:&/b&endurance比NAND长1000倍。&br&Flash一般写次数是10^4-10^6,如果与目前TLC的10^3来比的话就是10^6,而一般认为PCM可以被写10^7(正好是Flash 10^4的1000倍,如果是PCM实现的这个真就不值一提了),所以这样比下来endurance可能并不是那么惊人。当然作为易失性存储,DRAM理论上寿命无限,但周期性刷新耗电又影响性能。&br&&br&&img src=&/9c0d4b76ef7a0fdec83cc_b.jpg& data-rawwidth=&1272& data-rawheight=&958& class=&origin_image zh-lightbox-thumb& width=&1272& data-original=&/9c0d4b76ef7a0fdec83cc_r.jpg&&&br&&br&总体感觉就是性能数据给的相当高明(狡猾)啊,不过总体也无疑是比较大的突破了。&br&小结,相比DRAM,3D Xpoint的优势主要是&b&非易失,低功耗,高密度&/b&;相比NAND,&b&快读写,长寿命&/b&。至于取代DRAM或NAND,怕是任重道远,不过很明显intel-micron也没打算,至少没打算马上,取代,而是建议和NAND及RAM同时使用(有可能作为DRAM和NAND之间的新增层级)。初始阶段,3D Xpoint会通过PCIe挂载,未来会通过新的主板离CPU更近以更好发挥性能。主要应用场景自然是手机(容量及能耗),游戏(容量)和数据中心(容量,速度,寿命)了,但用起来估计要一段时间。&br&&br&&b&UPDATE: &/b&10月初MEMSYS会议上美光的keynote有提到3d-XPoint,以下图片均截取自keynote。&br&(1) 各项参数与DRAM和NAND的对比,latency靠近DRAM,寿命比NAND好,价格介于DRAM和NAND之间;密度没有涉及,但从价格和上面的推算基本可以确定密度比NAND差,不然也没NAND什么事儿了。&br&&img src=&/1e7e386cc5575c_b.png& data-rawwidth=&568& data-rawheight=&408& class=&origin_image zh-lightbox-thumb& width=&568& data-original=&/1e7e386cc5575c_r.png&&(2) 地位:DRAM和Flash之间的新层级,接口为PCIe或DDR。&br&&img src=&/8a12f2f634ff0bf3e1c0f010_b.png& data-rawwidth=&657& data-rawheight=&712& class=&origin_image zh-lightbox-thumb& width=&657& data-original=&/8a12f2f634ff0bf3e1c0f010_r.png&&(3) 开发计划:DRAM,NAND,3D-XPoint共存。&br&&img src=&/04cff3d7c486_b.png& data-rawwidth=&1028& data-rawheight=&437& class=&origin_image zh-lightbox-thumb& width=&1028& data-original=&/04cff3d7c486_r.png&&
一句话总结,3D Xpoint是可堆叠(stackable),无晶体管(without transistor)的非易失性存储(non volatile)。看起来很美的各种NVM,尤其是PCM,学术界火了这么几年都没能在工业界有什么实质性的实现和推进,3D Xpoint无疑是相当振奋人心的。NVM,大容量内存…
来自子话题:
&img data-rawheight=&360& data-rawwidth=&508& src=&/19b63db9de101fb471d7eb010c2ede86_b.jpg& class=&origin_image zh-lightbox-thumb& width=&508& data-original=&/19b63db9de101fb471d7eb010c2ede86_r.jpg&&
来自子话题:
你们这种人就是想太多,又不肯踏实点做,总想走捷径,做最佳选择,「赢在起跑线上」&br&&br&当然。。。也不是没有办法治好这个毛病的 &a href=&/question//answer/& class=&internal&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/question/2021&/span&&span class=&invisible&&2415/answer/&/span&&span class=&ellipsis&&&/span&&/a&&br&&br&&br&——我生气了——&br&&br&下面这个截图中的这位大三学生,我不明白你基本什么都不懂,为啥言之凿凿?&br&你忽悠人去搞什么嵌入式你就解决问题了?&br&&br&计算机,就只有一根主干,摸清主干,这些什么嵌入式啊服务器啊web开发啊前端啊机器学习啊算法工程师啊什么的,都只是一个方向罢了。&br&&br&我现在要是想去嵌入式行业捞个年薪30W的工作难道不是&b&&u&「横着」、「竖着」、「躺着」、「站着」、「被人抬着」&/u&&/b&都可以随便进么?&br&我高中生一个,没上过985研究生,照样破你口中的门槛。真以为我不懂呢?&br&&br&此外,你的那些思考,不值一驳,毫无价值,我不是为了批判你(因为那简直是浪费我的时间),而是正正视听,写给别人看的。&br&&br&最后,所有关于程序员发展前景行业选择的问题我早就在一个『如何成为优秀的程序员』的问题中回答得比较透彻了。&br&&br&&img src=&/bf295afab0_b.jpg& data-rawwidth=&649& data-rawheight=&605& class=&origin_image zh-lightbox-thumb& width=&649& data-original=&/bf295afab0_r.jpg&&
你们这种人就是想太多,又不肯踏实点做,总想走捷径,做最佳选择,「赢在起跑线上」当然。。。也不是没有办法治好这个毛病的 ——我生气了——下面这个截图中的这位大三学生,我不明白你基本什么都不懂,为啥言之凿凿?你忽悠人去搞什…
&p&随着集成电路工艺技术的不断发展,一方面,芯片的尺寸在继续增加, 其内部复杂度也不断提高。有数据显示:当今最先进的芯片面积已超过40平方毫米 ,复杂的微处理器芯片在一块基片上已集成了近1亿个晶体管。为了连接如此多的晶体管 , 其内部互连线已达到6~8层之多, 结构变得非常复杂。另一方面,芯片的工作频率也在不断提高 ,先进的微处理器芯片的主频已达到4GHz的数量级。高密度的互连线和在其上传输的高频信号必将引发信号延时、信号完整性、信号串扰, 以及电子封装等多方面的问题。因此,为多层介质多互连线结构建立 一个精确的计算模型已成为一个重要课题。&/p&&br&&p&传统的处理方法是对所研究的电学问题建立一个等效传输线模型。这样做的好处是得到传输线模型和模型参数之后,有许多现成的电路模拟工具可以用来对所研究的对象进行电学分析。金属-绝缘-半导体(MIS)传输线是集成电路中最基本的一类互连线。在这种结构中,带损耗的半导体基片使传输线的等效电路参数具有了频变特性。因此,互连线频变特性的分析成为互连线参数提取的关键。目前 ,已经有多种电磁场数值方法 ,如矩量(Method of Moment)法、全波分析谱域法和时域有限差分(FDTD:F inite-D ifference Time-Domain)法, 都对这种互连线进行了分析。但是,它们或多或少都有些缺陷:有些对原问题做了一些近似(比如把金属看成良导体等), 有些只能得到互连线单一频率的信息(比如谱域法 )。而互连线的频域特性又可以在得到互连线的时域分析结果后, 通过快速傅里叶变换(FFT)方便地得到。时域有限差分法(FDTD)及其改进算法AD I-FDTD (AD I:A lternative Direction Implicit)法就是这样一类分析方法。它们在互连传输线和微波电路的分析中已经得到了应用 ,具有方法直观、计算精确等优点。AD I-FDTD 算法在计算速度和数值稳定性方面大大优于FDTD算法。人们已经将AD I-FDTD应用于多导体互连线的电磁场计算 。而实际AD I-FDTD 应用中的一些具体问题却还有待解决, 比如吸收边界条件差分格式,以及具体的源产生方案;特别是, 针对芯片互连线中的多层介质和多导体线的结构, 提出了稀疏的矩阵模型和可变网格的划分,进一步提高了AD I-FDTD算法的计算速度及易用性。&/p&&br&&p&《芯片内互连线计算中的一种算法实现》(《微电子学》)&/p&
随着集成电路工艺技术的不断发展,一方面,芯片的尺寸在继续增加, 其内部复杂度也不断提高。有数据显示:当今最先进的芯片面积已超过40平方毫米 ,复杂的微处理器芯片在一块基片上已集成了近1亿个晶体管。为了连接如此多的晶体管 , 其内部互连线已达到6~8层…
来自子话题:
别担心,姐姐教你。&br&鉴于你初次开发嵌入式项目,建议你做“远程安防监控项目”,这是个很好的入门项目。你不用担心你的硬件经验单薄,因为现在国内嵌入式就业市场都是基于嵌入式系统的编程,所用到的功能电路在市场上都已高度成熟、模块化了,淘宝上都买得到,并且说明书都会告诉你这些模块怎样跟嵌入式主板连接。&br&远程安防监控这个项目代码难度适中,适合LINUX系统,需要的硬件系统在市场上很普及,项目内容实际上属于利用internet、GPRS,3G、WIFI等技术实现远程监控通信。你需要做的前期准备就是:购买一个ARM板子(ARM7足够用了,需要注意的就是要买支持串口协议的,免得自己再做),购买传感器模块(红外采集、温度采集、烟雾探头以及USB摄像头),购买通讯模块(internet、GPRS,3G、WIFI,可单一也可复合,随你的意愿),连接线,编程环境(建议别用学校的,直接向ARM板商家要,他们会很乐意免费向你提供)。&br&技术难点:&br&1、uboot移植(网上教程很多,视频也有,很详细,学嵌入式这是必过的一关);2、usb协议、驱动移植;3、个传感器模块驱动移植;4、个通讯模块驱动移植;5nandflash坏块管理(建议学习);6、Android客户端(视你的系统是否包含3G手机,可以自己从网上下载通用版本)。&br&有问题可以问我,出学嵌入式主要是熟悉编程语言和环境,急不得,祝你顺利!
别担心,姐姐教你。鉴于你初次开发嵌入式项目,建议你做“远程安防监控项目”,这是个很好的入门项目。你不用担心你的硬件经验单薄,因为现在国内嵌入式就业市场都是基于嵌入式系统的编程,所用到的功能电路在市场上都已高度成熟、模块化了,淘宝上都买得到…
来自子话题:
题主可能没玩过真正的街机,只是见过模拟器而已。&br&&br&街机性能不足导致拖慢是当年游戏业的一大课题。游戏机的图像处理是通过定制的处理器进行的,一旦超过处理能力就只能顺序延后了,一般不跳帧。&br&尤其是射击游戏,普遍存在子弹太多画面拖慢的问题,后来这反而成了一条设计规则,即使机器处理速度够用,画面上活动物体超过一定数量,会启动人为拖慢的功能,方便玩家躲子弹。
题主可能没玩过真正的街机,只是见过模拟器而已。街机性能不足导致拖慢是当年游戏业的一大课题。游戏机的图像处理是通过定制的处理器进行的,一旦超过处理能力就只能顺序延后了,一般不跳帧。尤其是射击游戏,普遍存在子弹太多画面拖慢的问题,后来这反而成…
你一辈子也不可能看到石墨烯处理器的。信不信由你。你还是好好学计算机赚钱吧,等到(假设)石墨烯开始卖了,你的财产估计都1个t了。。&br&。 。。。。intel 因为上当受骗请了很多人去当graphene 的 staff scientist (我认识几个),后来都被辞退了。&br&问题何在?graphene 的迁移率本征上可能很高,但是受到graphene 的charge paddle(这么薄的一层东西太容易吸附其他分子了)和 impurity等影响,特别是substrate的糟糕特性(不平整,),graphene实际上的迁移率远远低于所谓他报道的“最高迁移率”。实际上如果不是因为这些最高迁移率出现的如此罕见的话(例如超低温,撕下来的graphene,超平整substrate甚至悬空的graphene),他们也不会像捡到了一个宝一样拿去发表science吧。。&br&这种逻辑不攻自破,真是可笑啊。如果你相信每一次科学家的美好愿景和funding的借口,那你好去买股票了。&br&真是科学界拖工业界下水猪队友的经典案例。。。。
你一辈子也不可能看到石墨烯处理器的。信不信由你。你还是好好学计算机赚钱吧,等到(假设)石墨烯开始卖了,你的财产估计都1个t了。。。 。。。。intel 因为上当受骗请了很多人去当graphene 的 staff scientist (我认识几个),后来都被辞退了。问题何在…
来自子话题:
少装国内开发商的App,少用各种内存优化电池优化的App,你会发现很多Android上的问题都不复存在。有那种启动一个就马上全家一起上的App家族(阿里巴巴,腾讯,百度说的就是你们),有那种看你联网就迫不及待启动,然后再呼叫全家一起启动的App家族(阿里巴巴,腾讯,百度说的就是你们)你的手机怎么会顺畅
少装国内开发商的App,少用各种内存优化电池优化的App,你会发现很多Android上的问题都不复存在。有那种启动一个就马上全家一起上的App家族(阿里巴巴,腾讯,百度说的就是你们),有那种看你联网就迫不及待启动,然后再呼叫全家一起启动的App家族(阿里巴…
来自子话题:
这年代不要用x87了。&br&x86上至少打开SSE,或用intrinsic函数 _mm_sqrt_ss()。&br&最好用 _mm_sqrt_ps() 一次做4次开平方运算。&br&双精度要用SSE2 _mm_sqrt_sd() 或_mm_sqrt_pd()。x86-64平台必然有SSE2的。&br&甚至用AVX的 _mm256_sqrt_ps() 一次做8次开平方运算,双精度_mm256_sqrt_pd()也可做4个。&br&附送 &a href=&///?target=https%3A///sites/landingpage/IntrinsicsGuide/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Intel Intrinsics Guide&i class=&icon-external&&&/i&&/a& 和 &a href=&///?target=http%3A//www.agner.org/optimize/%23manuals& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Software optimization resources. C++ and assembly. Windows, Linux, BSD, Mac OS X&i class=&icon-external&&&/i&&/a&。
这年代不要用x87了。x86上至少打开SSE,或用intrinsic函数 _mm_sqrt_ss()。最好用 _mm_sqrt_ps() 一次做4次开平方运算。双精度要用SSE2 _mm_sqrt_sd() 或_mm_sqrt_pd()。x86-64平台必然有SSE2的。甚至用AVX的 _mm256_sqrt_ps() 一次做8次开平方运算,双精度…
来自子话题:
影响开发效率的因素有很多,但本回答想抓住时间碎片化这一点,把它讲透。如果因为此文,让程序员读者们有更多完整时间来享受编程的创造感,实是我幸。&br&&br&&blockquote&为珍惜你的时间。在这次的回答中,你将读到:&br&&ul&&li&谈谈灾难是什么:如果时间碎片化地做开发软件,到底有多影响效率?&/li&&li&谈谈时间开销:开发时间怎么就碎片化了?&/li&&li&解决之道:如何优化管理,让时间聚沙成塔?&/li&&ul&&li&干货在哪:&b&实践策略在文中以?形式表示出。&/b&&/li&&/ul&&/ul&&/blockquote&&br&&br&+++以下正文&br&&br&&img src=&/0f06a02aa2df77a22c1da_b.jpg& data-rawwidth=&400& data-rawheight=&300& class=&content_image& width=&400&&&br&&br&&b&&为什么讨论时间的碎片化 ?&/b&&br&&br&产生有效成果的智力活动,总是需要连续的时间来保证。许多忘我思考的典故都证明了这一点。 软件开发是一种智力活动,因此也遵循这一道理。 打断某人的工作,不论是智力工作还是体力工作,对工作的效率和产出总会产生负面影响。 只不过与体力劳动不同, 智力劳动受到这方面的负面影响要大得多。 对一名建筑工人,如果他连续工作的60分钟被打断成3个不连续的20分钟, 其产出与连续工作60分钟相比,是基本一致的。而对一名软件开发人员,3个不连续的20分钟内的工作成果,恐怕只能相当连续的40分钟的成果。有20分钟的时间被丢失了。 为什么会这样? 谁偷走了他的时间?下文试图给出解释。&br&&br&&b&时间如何破碎 ?&/b&&br&&br&仔细观察我们每天的工作时间花费就不难发现,存在天然的时间断点把我们本来连续的工作时间碎片化。午休、倒咖啡、去洗手间等等。除此之外,一些偶发的事件也能打断我们的思绪,比如一个电话,一个邮件提醒,或一个 MSN 消息。 我们不是古庙里的僧侣, 因此尘世中的干扰总是存在。 但这些不是讨论的内容。 我想讨论的, 是在软件开发管理中不合理的做法导致的时间碎片化。&br&我认为以下做法是? 不合理的(注意规避)。&br&&br&&i&- 一人多任务&/i&&br&&i&- 过分强调面对面沟通&/i&&br&&i&- 过多的全体会议&/i&&br&&br&&i&一人多任务&/i&&br&&br&有些管理者喜欢让开发人员同时在几个任务上展开工作,而不是顺序地完成它们。 这样做可能基于以下理解:&br&&br&- 任务越早展开,越能尽早暴露问题,从而便于及时解决,降低管理上的风险。&br&- 开发任务紧,多任务安排可以增大开发人员的负荷,防止他们偷懒。&br&- 多个任务具有相同的优先级,而且彼此之间没有依赖关系,因而应该同时展开。&br&&br&任务启动的早,并不能消除问题,只是把问题提前了。从这个角度讲,问题的总量并不会减少。既然这样,过早地暴露出问题有什么好处呢? 在项目的可用资源(人力、时间)一定的情况下, 我看不到这样做的好处。 如果项目资源可以增加, 一人多任务的情况就不会出现,也就没必要讨论了。&br&&br&通过多任务来提高开发人员的工作强度并防止他们偷懒的做法,我认为是幼稚的。管理者应努力和开发人员建立起信任关系,并通过其他方式激发他们的干劲。 当他们像负重的骆驼一样被对待时,作为会说话的智能生物,开发人员知道如何把超额的重物放在原地,而令管理者觉得他们在负重前行一样。&br&&br&一人多任务的安排的问题在于,人不是多核系统。 他只能采用交替工作的方式来“同时”展开多项任务。当他在不同任务间切换时,特定任务上的工作时间就不再连续了。就像单核CPU执行多任务一样,这是让开发人员的大脑应用 TDM 技术。不幸,人脑不是高效的 TDM 设备。&br&? 无论如何,一人多任务的安排都应该努力避免。 如果仅仅因为优先级相同,那这些任务可以随机地顺序安排。&br&*[TDM]: Time-division multiplexing,即时分多路复用。&br&&br&&i&过分强调面对面沟通&/i&&br&&br&面对面沟通是敏捷开发实践中强调的一个重点。许多管理者据此在整个组织内鼓励面对面的交流。我不认为这是一个好的做法。敏捷开发队伍是由 自组织 (self-organized)的小团队构成。敏捷开发中面对面沟通是指自组织团队内部的沟通。这种内部的沟通,被证明是高效的。 但是,把这种方式推广到自组织团队的边界之外,则是糟糕的做法。外部的沟通以受控的、相对正式的方式进行,是对自组织的团队的保护,使之免受干扰。自组织团队就像封装良好的软件组件。它应该是内聚的,外部只能通过定义良好的接口与之交互。&br&&br&很多时候,面对面交流,仅仅是提高了交流发起者的效率而已。(甚至这一点也值得怀疑,因为经过仔细斟酌写下的文字,通常要比现场发挥的言语表达的更清楚)。? 当你礼貌地找某人谈话时,你已经礼貌地打碎了他的时间。你在损害他的效率。(以后这么做前请斟酌)&br&&br&说到这里,请读者不要误解。我不是在鼓励开发人员成为像患有自闭症一样的程序怪人。我只是想强调,过多的当面交流会导致时间的碎片化,从而影响整个团队的效率。 有其他沟通方式(? 比如邮件),能把对他人的干扰降低。&br&&br&&i&过多的全体会议&/i&&br&&br&喜欢召开全体会议的团队领导者,? 在召开全体会议前请思考(思考下面的问题后再决策),会议内容是否是每个人都必须知道的? 是否是必须口头传达给每个人的 ? 如果是一场讨论会,是否这些人都需要参与到讨论中来? 由于全体会议打断了每个参与者的时间,时间碎片化效果扩展到了全体,因而影响更大。&br&&br&&b&时间碎片化的带来了什么后果?&/b&&br&&br&时间碎片化有两个主要后果,即有效工作时间的减少和发生缺陷的可能性增大。&br&&br&有效工作时间的减少&br&&br&软件开发工作是剧烈的脑力活动。象引擎一样,人的大脑在进入高速运转前,需要一个预热和启动过程。让我姑且称这里消耗的时间为“思维引导时间”( Mind Bootstrap Time , MBT )。这一时间的长短,取决于你面对问题的复杂性(和昨晚的睡眠质量?)。 比如, 某人的谈话如果被打断后,他可能会问“我刚才讲到哪里了?”。要继续之前的谈话,他就需要重新思考交谈的内容并从被打断处开始。这里花费的时间,就是 MBT 。 对一段谈话来讲, MBT 可能只需几秒钟。对软件开发活动,则可能需要好几分钟。&br&&br&现在已经不再是一个文本编辑器解决所有问题的软件开发时代了。比如对一个典型的 JEE 开发项目,我们应该很容易理解一个程序员早上写下第一行代码前所做的以下操作:&br&&br&- 打开 Eclipse IDE 。在 Eclipse 欢迎界面下的滚动条努力向前的时候,&br&- 启动开发用数据库服务(比如 HSQLDB )。在数据库服务启动日志还在 DOS 窗口翻滚的时候, 他&br&- 打开数据库 GUI 客户端。接着,&br&- 启动 tomcat 。&br&- 在 Eclipse中打开昨天工作中的Java源文件,开始编写今天的第一行代码。&br&&br&我把这一过程所花费的时间,称作“环境准备时间”,即Environment Preparation Time(EPT) 。 如果连续的开发时间被打断,开发人员可能需要重复这一过程。 EPT 会因开发环境的不同而长短不同,但这部分时间总是存在的。&br&&br&让我把 MBT 和 EPT 称作断点时间。 断点时间不是有效的工作时间,因为它们不能带来直接的产出。 这里想强调的是, 有效工作时间是必需的消耗,而断点时间总是可以通过减少时间碎片来减少或避免的。如果时间连续性已经被打断, 断点时间还能被消除吗? 我认为答案是否定的。&br&&br&碎片化的时间, 就像被田埂分割的土地。分割的越多,实际可种植面积就越少,不论田埂修的多狭窄。&br&&br&*[MBT]: 思维引导时间,即 Mind Bootstrap Time。&br&*[EPT]: 环境准备时间,即Environment Preparation Time。&br&*[JEE]: Java Enterprise Edition 。 Java开发企业应用软件的一套规范、工具、以及框架。&br&*[IDE]: Integrated Development Environment,即集成开发环境。&br&*[Eclipse]: 一款流行的 Java 集成开发工具。&br&*[tomcat]: 一款流行的java web(servlet)服务器。&br&*[HSQLDB]: 一款Java开发的轻量的关系数据库系统。&br&&br&发生缺陷的可能性增大&br&&br&打碎的玻璃杯子被重新粘合后可恢复完整并继续使用。但粘合的痕迹让它不再美观。更重要的是,重新粘合可能引入缺陷:接缝处未对齐的话会产生缝隙;粘合材料和杯子本身材质的不同会使整个杯子的应力不均,从而使它比以前更容易炸裂。&br&&br&通过重新进入状态并找到上次离开时的工作点,开发人员可以接续之前被打断的工作。但就象重新粘合的杯子一样,这里不仅有直接的有效工作时间损失,更有可能引入后续问题。 “我刚才写到哪一行了?”,重新回到代码前的程序员可能会这样问自己。通过回想,他找到了离开时正在完成的switch结构并继续编写下一个case子句。不幸的是,前一个case子句遗漏了本该有的break。一个bug就这样产生了。修复此bug的时间可能是撰写这部分代码的数倍[1]。&br&&br&这个引入bug的例子很容易应用到其他开发工作上,比如需求分析、系统设计、测试等。简单讲,时间的碎片化使得开发过程中发生缺陷的可能性增大。人脑虽然比电脑复杂的多,但在断点管理方面,可比后者差很多。&br&&br&&b&结束语&/b&&br&&br&时间碎片化是开发工作直接的危害之一。? 虽然很多时间断点无法避免,但管理方式的改进能减轻这方面的危害。? 减少对开发人员的干扰,提高他们工作时间的连续性,是高效管理的必要手段之一。理解了这一点,把团队拉到偏远的酒店或关到一个单独的房间进行所谓的“封闭式”开发,就显得不是那么必要了。&br&&br&[1] 这即为“fall through” bug。定位此bug所花费的时间,通常取决于其所处组件的逻辑复杂程度。&br&&br&&blockquote&感谢本文原作者:&br&王锦全,男,本科学历,1996年毕业于中南大学机电工程学院。王锦全长期从事软的研发和管理工作,先后担任过软件工程师、系统架构师、CTO等职务。曾服务于多家公司,包括世界100强、国内大中型国有、私营软件企业等,也有过自主创业的经历。他目前是杭州一家中型软件企业的技术总监,主要负责公司的管理制度优化、敏捷研发推广以及大数据技术研发等工作。他是资深的 Java 和 Python 程序员,也是 Clojure(Lisp) 爱好者。读书和思考是他的爱好。 您在其 linkedin主页( &a href=&///?target=http%3A///in/johnwangwjq& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&John Wang | LinkedIn&i class=&icon-external&&&/i&&/a& )可了解他的更详细经历。&p&编辑自InfoQ公众号: &a href=&///?target=http%3A//mp./s%3F__biz%3DMjM5MDE0Mjc4MA%3D%3D%26mid%3Didx%3D1%26sn%3Dcbb5d87d2fa3a81cff21%26scene%3D1%26srcid%3D0411tBC4Qe7UcAXu8WxkSdOl%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&软件开发如何规避时间碎片化的坑?&i class=&icon-external&&&/i&&/a&&/p&&/blockquote&&br&再来一打推荐阅读:&br&&a href=&///?target=http%3A//mp./s%3F__biz%3DMjM5MDE0Mjc4MA%3D%3D%26mid%3D%26idx%3D1%26sn%3D964b496b06d6eae3d4a79%26scene%3D4%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&程序员的生产力始于什么?『需求』还是『工具』?&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//mp./s%3F__biz%3DMjM5MDE0Mjc4MA%3D%3D%26mid%3Didx%3D1%26sn%3D1a769ada8e2234de90baf1%26scene%3D4%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&应对组织代码可能遇到的所有情况,只需四大策略&i class=&icon-external&&&/i&&/a&
影响开发效率的因素有很多,但本回答想抓住时间碎片化这一点,把它讲透。如果因为此文,让程序员读者们有更多完整时间来享受编程的创造感,实是我幸。为珍惜你的时间。在这次的回答中,你将读到:谈谈灾难是什么:如果时间碎片化地做开发软件,到底有多影响…
来自子话题:
第二天朝鲜宣布氢弹试验成功了不是
第二天朝鲜宣布氢弹试验成功了不是
来自子话题:
你说的这些,并不是未来,而是过去已经达到。&br&&br&& 1.未来 gpgpu 在通用计算机领域会达到 cpu的地位吗?&br&不会。两者分工不同。GPU适合大量纯计算,CPU适合流程控制。以后仍然会保持这样的分工。&br&&br&& 2.gpu 在人工智能,3D图形建模方面是不是会有绝对的优势?自己也看过一些gpu方面的常识,了解gpu在处理海量数据方面优势很大,刚好满足人工智能,无人车地形建模方面的需求。&br&你说的无人车地形建模,并不属于3D图形建模。那个主要计算量在采集和识别数据,而不是建模。这些都是GPGPU的事情,很显然都是绝对优势。&br&&br&& 3. 云计算方面,是不是在云端用 GPU 进行数据处理之后,再传回到终端是大势所趋?因为看见英伟达和微软的azure合作,直接在云端进行图形渲染。&br&图形渲染方面,云计算的话问题在于,输入数据(模型和纹理)往往远小于输出数据(视频流),并且存在很大的延迟。所以对于离线渲染来说,早就是这样了。但实时渲染/游戏应用,仍然不行。NV有一些方法能改进这个,比如direct lighting在客户端做,indirect lighting在云端做。因为人对indirect lighting的延迟不敏感,而且频率较低可以很好地压缩,适合云端的条件。
你说的这些,并不是未来,而是过去已经达到。& 1.未来 gpgpu 在通用计算机领域会达到 cpu的地位吗?不会。两者分工不同。GPU适合大量纯计算,CPU适合流程控制。以后仍然会保持这样的分工。& 2.gpu 在人工智能,3D图形建模方面是不是会有绝对的优势?自己也…
来自子话题:
因为算是写过游戏,吐槽下吧。&br&另有声明:我看的教程也是杂七杂八,所以欢迎指正~&br&&br&&b&Intel卡:诶诶,这个功能不支持,诶诶,那个功能也不支持?!&/b&&br&嗯 稍微早一点的Intel卡没有FBO(FrameBufferObject,相当于DirectX里的RenderToTexture)。&br&一开始用这个feature的时候,到处查资料,发现确实是个出了挺久的feature了,应该不会有不支持的吧,然后Intel卡给我上了一课。这其实是Intel的驱动开发偷懒啊!这又不是什么高科技的东西!Mac OS X 上就一直支持FBO!&br&&br&&b&ATI卡:嗯这个功能支持。怎么崩溃了?!怎么还能蓝屏呢?!!&/b&&br&ATI倒是都有FBO,不过真心不好用啊。。。&br&跟GL_RECTANGLE_TEXTURE搭配的不好,会崩。不过后来查资料说这个已经deprecated了,于是乖乖用GL_TEXTURE_2D。&br&会在莫名奇妙的地方报INVALID_FRAMEBUFFER_OPERATION错误,不管你用不用FBO。&br&在报错的那个地方的前面加一对glBegin/glEnd就好了。。这什么情况啊。。。&br&尽管在DisplayList里用VBO是个很奇怪的事,不支持也就算了,可是请报错好吗,能别崩吗?另外人家n卡做的就很好。。&br&就不说直接ACCESS_VIOLATION的那些了,在Python里用,还是别人家显卡,根本没法查。。&br&嗯,还有 显示驱动停止响应 之类的,这还是我在彻底不用一些奇怪的feature之后。&br&还有蓝屏。。。这太坑了吧!咱是用户态程序啊!&br&&br&&b&nVIDIA:赞~&br&&/b&我的显卡是Quadro NVS 135M。真的好舒服。没什么问题。&br&&br&update:&br&偶然间看到了这篇文章,应该会有用的&br&&a href=&///?target=https%3A//dolphin-emu.org/blog//dolphin-emulator-and-opengl-drivers-hall-fameshame/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Official Dolphin Emulator Website&i class=&icon-external&&&/i&&/a&
因为算是写过游戏,吐槽下吧。另有声明:我看的教程也是杂七杂八,所以欢迎指正~Intel卡:诶诶,这个功能不支持,诶诶,那个功能也不支持?!嗯 稍微早一点的Intel卡没有FBO(FrameBufferObject,相当于DirectX里的RenderToTexture)。一开始用这个feature…
来自子话题:
开发自己算法的在香港比比皆是。我所知道的如Nomura, Morgan Stanley, Epoch, Cash等,还有大量的量化对冲基金,没有自己的算法在香港活不下去。在大陆我相信原创的算法肯定有,但是了解到多数机构还是以“借鉴”+修改+试错为主。但是你要说高频交易算法,那就是另一个问题了。&br&&br&大陆市场做高频的,据我所知没有(那些几分钟一个委托的所谓“高频”策略在美国成熟市场一千个每秒的策略面前连个玩具都算不上),FPGA就更不要说了。最重要的原因是,交易所本身不具备支持高频交易的技术条件,而且在大陆高频交易仍然存在争议(散户太多,特指股票市场)。而香港市场,可能有一些人在做,但是受限于交易所的性能,还远远达不到美国市场的频率。&br&&br&香港证券交易所最新的系统升级正在为高频交易进行铺垫。它们将系统吞吐量提高了10倍,每条交易连接最高1000委托/秒,而行情则可以达到最高每秒六万次更新,而香港衍生品交易所的行情更新速度更是达到了每秒20万次(交易连接吞吐量没有具体数字,但是肯定会高于证券交易所),基本具备了进行高频交易的物理条件。&br&&br&所以即使目前还没有高频交易,不远的将来肯定会出现。&br&&br&相比于国内,各期货交易所每秒2次的行情更新以及证券交易所每3秒一次的更新,真正高频交易基本上还望不到头。&br&&br&所以总结一下,自己开发算法的有不少,HFT的香港有一些玩家,大陆没有,FPGA想都不敢想&br&&br&---------------残念的分割线----------------&br& 更新&br&&br&在接触过更多的中国金融业信息之后,对上述论断作出修正:大陆存在做高频的公司,并且大多(如果不是全部)存在于期货交易行业,股票交易仍然受制于T+1而较难开展高频交易。&br&&br&期货交易中为克服0.5秒的限制可以采取小单刺探的方法,即发送一个数量很小的单,看是否成交来判断此时orderbook顶部的情况,因为委托通道是实时反馈的。&br&&br&但是近期的政策全部指向对高频交易不利的方向,所以我对在中国做高频在短期内仍然持悲观态度。
开发自己算法的在香港比比皆是。我所知道的如Nomura, Morgan Stanley, Epoch, Cash等,还有大量的量化对冲基金,没有自己的算法在香港活不下去。在大陆我相信原创的算法肯定有,但是了解到多数机构还是以“借鉴”+修改+试错为主。但是你要说高频交易算法,…
&a href=&/people/arthur-wang-17& class=&internal&&Arthur Wang&/a&说的好,先看manual 。我老板的口头禅也是“这个简单,翻一翻manual 就会了啊。”(其实并没有)以及不论什么tool都是“自己去找manual学啊”(TT.)。&br&&br&推荐几个不错的论坛:&br&官方的:&a href=&///?target=http%3A///cadence_technology_forums/f& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Forums -
- Cadence Technology Forums&i class=&icon-external&&&/i&&/a&&br&国外论坛:&a href=&///?target=http%3A//www.designers-guide.org/Forum/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Designer's Guide Community Forum&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Forum for Electronics&i class=&icon-external&&&/i&&/a&&br&国内论坛:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&中国电子顶级开发网论坛(EETOP) 国内顶级电子论坛,最活跃的电子工程师交流社区&i class=&icon-external&&&/i&&/a&&br&&br&一般来说,直接google或百度你的问题,然后再找啊找~&br&当然最后可能会发现,最好用的还是「神一般的学长」XD&br&&br&PS:关于一些最基本的操作,之前网络上有一个200多页的中文教程,版权不明,搜「基于Cadence的IC设计」应该可以找到,不过比较旧一点是针对IC 5的。&br&书本的话早一点的有何乐年的&a href=&///?target=http%3A///.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《模拟集成电路设计与仿真》&i class=&icon-external&&&/i&&/a&&br&新出的如:&a href=&///?target=http%3A///.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《CMOS模拟集成电路设计与仿真实例――基于Cadence ADE》&i class=&icon-external&&&/i&&/a&
说的好,先看manual 。我老板的口头禅也是“这个简单,翻一翻manual 就会了啊。”(其实并没有)以及不论什么tool都是“自己去找manual学啊”(TT.)。推荐几个不错的论坛:官方的:国外论坛:
来自子话题:
可以问下练夜摊做火爆鱿鱼的摊主:)
可以问下练夜摊做火爆鱿鱼的摊主:)
前几天机缘巧合看到了这个问题,发现正好跟我之前硕士开题的方向有点联系,我看到很多人都回答了Ge作为芯片材料的诸多优势,都说的很有道理,我是研究Si这种材料的,对于Ge的性能并不是很了解。但是我想从&b&应变硅&/b&这一概念,给这个问题提供一个新的思路。&br&首先还是要提&b&摩尔定律&/b&,之前几个答主都介绍的很清楚了,我就不再赘述。去年是摩尔定律提出40周年,在这40年里摩尔定律都准确预测了芯片行业的发展(看下图)。inter公司宣布其10nm工艺平台canonlake将推迟一年,到2017年下半年才能实现量产(可能不是最新消息)。这说明24个月翻一倍的周期已经减缓了。&br&&img src=&/3efdfc566b35b463ae75ec9_b.png& data-rawwidth=&500& data-rawheight=&350& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&/3efdfc566b35b463ae75ec9_r.png&&&br&然后说一下&b&SiGe工艺的概念&/b&:SiGe工艺(应变硅),是在制造电路结构中的双极晶体管时,在硅基区材料中加入一定含量的Ge形成应变硅异质结构晶体管,以改善双极晶体管特性的一种硅基工艺集成技术。&br&它的优点:具有高性能、高集成度、高成本-效益比等特点。与同尺寸普通MOSFET相比,功耗减少1/3,速度提高30%,特征频率提高50%,功耗延迟仅为后者的1/6。&br&最后也是最重要的,解释一下这其中的原理:&br&&img src=&/d266ade931c0b4c4de2cab2d8805d1ac_b.png& data-rawwidth=&277& data-rawheight=&358& class=&content_image& width=&277&&&img src=&/e15d0cd4dea0_b.png& data-rawwidth=&278& data-rawheight=&360& class=&content_image& width=&278&&这两幅图经常被用来解释应变硅的基本原理,其实很简单,Ge的原子半径是要大于硅的,并且Ge的晶格常数也比Si单晶的晶格常数要大(上图),这样将两种物质结合在一起(不管是ALD还是其他方法),&b&Si原子之间的键长就会被拉伸&/b&,有一种最浅显的说法因为原子间间距增大,对电子移动的阻碍就减小了,所以速度,功耗和特征频率等性能会有较大的提升。英特尔ProcessArchitecture Integration经理Mark Bohr曾经非常形象地描述:“只需将&b&硅原子&/b&&b&拉长&/b&1% 就可以将MOS晶体管电流速度提高10%~20%,而&b&应变硅&/b& 的生产成本只增加2%”。&br&其实应变硅的具体原理现在还有所争议,没有一个统一的共识。大家主要从应变调控硅的能&b&带结构,载流子迁移率,电子和空穴的有效质量,以及表面态&/b&改变等各个方面入手来解释。我个人认为很有可能是一个综合的结果,这也是我最近的一个研究方向。&br&第一次回答问题,请多多指教。
前几天机缘巧合看到了这个问题,发现正好跟我之前硕士开题的方向有点联系,我看到很多人都回答了Ge作为芯片材料的诸多优势,都说的很有道理,我是研究Si这种材料的,对于Ge的性能并不是很了解。但是我想从应变硅这一概念,给这个问题提供一个新的思路。首先…
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多关于 n8805 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信