Linux C++ 服务器端这条线怎么走?结婚一年半不怀孕能做出什么

Linux C++ 服务器端这条线怎么走?一年半能做出什么?
您好,我现在大三了,请问我想往 Linux C++ 服务器方向发展该怎么走,比如现在在看 Linux 程序设计,还应该在看哪些书,可以完成一些什么项目?谢谢。有 C++、C 基础,算法数据结构还不错。
按时间排序
回复的很到位了,做android嵌入式开发几年了,遇到瓶颈,现在就是问题。路不好走啊,请指点?转web?
看了后面的众多回复,真心担忧。论调无一例外:java更好赚钱,C++无趣还不一定高薪所以有人说的对,现在培训班培训什么,什么就毁了。比如java,比如android。培训班的浮躁不是说说而已。希望浮躁不要进入技术圈。阿门~
看书的话建议你可以这么来:1. 基础:计算机网络(了解网络传输层协议的机制,包括TCP和UDP)2. Linux开发:Unix网络编程(了解Linux系统支持传输层协议的Socket API)3. 应用层协议:HTTP权威指南(这是一个使用TCP的应用层协议,通过了解HTTP协议的机制,你可以学习一下应用程序的网络通信协议的实现以及所面临的各类问题)项目的话,建议你可以从实现一个最简单的QQ程序开始,你可以用Linux的C++开发底层的服务器端程序,在另一台机子上用java开发客户端。通过这样一个项目你可以感受一下网络的跨平台跨语言特性。PS:虽然上面这个项目看起来很简单,但是你在实现过程中需要解决的问题很多,包括:定义和解析应用层协议包,设计协议的对话规则,设计算法来识别用户,定义用户之间传输对话数据的架构(基本的架构有两类:通过服务器中心转发,以及用户与用户之间点对点连接通信,建议先从服务器中心转发架构做起),离线信息的保存等等。其实要学会如何通过Linux C来实现数据通信很简单,基本的API就那么几个,但关键是如何设计自己应用程序的通信协议,并实现可靠的客户端和服务端程序,什么是可靠?例如你的客户端突然断线了怎么处理?服务器端的客户队列太长怎么办?要是用户发送了不正确的报文给服务器,服务端程序怎么处理?要是连接不上服务器怎么办?你应该可以发现,要解决这些问题,单是学习Linux网络编程的几个API是不够的,你还需要学习网络协议,这也就是为什么我建议你去看计算机网络和HTTP权威这两本关于网络协议设计和分析的书了。当然目前很多底层服务器程序是不需要你从头开始写的,一般你只需要改一些原有的服务器程序的代码,优化一下现有的算法即可。所以在你完成了上述的学习后,你可以去学习Nginx或者Apache的http服务端程序源码,这对于今后的工作可能也是有帮助的。
一直在实践,没时间学理论,悲剧
不停地与崩溃泄漏搏斗,直到于万行代码中,找出越界/泄漏点,如同探囊取物。
不是“我想往X方向发展应该看什么书”,而是“我作为一个CS专业的学生应该看什么书”像APUE,UNP这样的书,和你未来要做什么方向有什么关系?像算法导论这样的书,你作为CS毕业生说自己没通读过说得过去吗?放宽心好好看书,好好学基础。忘了是哪个知乎问题下的回答,我觉得挺好:计算机科班出身和非科班出身的最大区别是,科班出身的人有充足的时间去看上面的书并且可以和同样有时间看这些书的人能讨论学习。
去github看看别人的项目,多读一些代码...
一年半的时间我不认为你能达到楼上那些人说的地步。总之先定好方向,网络服务端也有好多路线的,是走webserver还是游戏通信后端,rpc,流媒体还是下载器。任何一个方向不专注3年,谈不上有何建树
建议:找点项目做 千万别听楼上的死啃大部头。项目做到一定程度 你就知道该看些什么了
根据工程经验来看,Linux C/C++这个方向主要强调性能,高并发,稳定性这些因素,重点在后端。如果你对前端内容不是特别敏感(所谓的美),后端是你的强项,大数据,云存储,云计算都与linux后端有密切 关系。内容:语言(c/c++),算法(强调性能),linux系统编程及内核原理 (才知道如何调优),网络。这是基础。然后就是具体的方向,例如高并发服务器?大数据?完全根据你自己的定位。这里有关于linux的视频以及大数据相关的视频和项目,可以参照学习。视频开源
嘛叫linux服务器方向?啥服务器的啥方向?如果只是想说,linux+不做ui的话,还真难说能做出个啥有用的来……没ui好多有趣的都没的做……真正有用的一个人一年还不一定搞得出……要么写爬虫玩吧,好像入门的介绍挺多,也不用啥ui。爬下来的东西还可以二次开发玩或者……写个p2p?够好玩但是没ui大概每人用,而且不是个server……这问题挺难……
我的建议是先别学那么多书,先确定好做哪一个行业先? 比如说:电信,游戏等,其实有些东西不用去细究,关键是去找项目工程,先用人家写的库,用好接口,能跑起来,然后调试进去,针对里头的代码逻辑去找相关的资料,这样最快!最实用。
学java吧,简单易学,工作机会多。学linux后台开发,费时费力,而且待遇也不一定比java高,工作机会集中在北上广房价高的地方
看书容易迷失,从成熟的工程开始如nginx, 看不懂的地方从书中找答案,会学的很快。
从问题来看,还是建议你用Linux和PHP在学校弄个简单的网络社区出来吧,先建立知识体系,知道每个东西是干什么的。Linux + C++要么是内核开发,要么分布式系统底层,或者驱动开发。从题主的问题,应该排除了驱动开发。内核开发,以上回答提供了很好的建议,分布式系统开发需要的知识比较广,对于大三的人来说,从你问问题的方式看,你还不具备这个基础,所以你还是先从单台Linux服务器,加简单php网站开始吧。同时打好shell和python的底子。如果学校有数据库和分布式的课程,就好好学习理论知识。我想对于在校大学本科生来说,能做好这些就很不错了。之后就去一个靠谱的公司,踏踏实实地干几年。
hi,我快毕业了,和你一样,我之前也对自己是这么定位的。根据你的情况,已经有了良好的计算机基本素质,接下来的工作会好做很多。你可以先试着看和,通过这两本书能让你对linux 下的服务器编程有一定的了解和认知。读这两本书最好有良好的操作系统和计算机网络基础,所以再推荐两本书:和。记得,看书的过程中别只用眼睛,要去实践。接着,你可以去使用并看一些小巧而又精彩的开源工具的源代码,譬如 libevent 或者 memcached。这些都是开源的,而且资料也有很多。看这些东西,能让你学到很多。一年半还很长,希望你能够耐住寂寞,在技术上有所沉淀。
在学校,一定要把基础打牢:操作系统,数据结构和网络基础。项目经验在以后的工作中会很快跟上,这时候就看谁的基础好,谁就走的远。如果基础不好,别人已经学以至用,你还是补基础课;差距很明显。
作为编程基础,如果 操作系统 和 体系结构 这些课程被混过去了,可以找本csapp精读下,然后做项目时用什么看什么
既然你是在校学生,而且编程语言和数据结构的基础还不错,我认为应该在《操作系统》和《计算机体系结构》这两门课上下功夫,然后才去读编程方面的 APUE、UNP 等书。下面简单谈谈我对学习这两门课的看法和建议,都是站在服务端程序员的角度,从实用主义(pragmatic)的立场出发而言的。学习操作系统的目的,不是让你去发明自己操作系统内核,打败 Linux;也不是成为内核开发人员;而是理解操作系统为用户态进程提供了怎样的运行环境,作为程序员应该如何才能充分利用好这个环境,哪些做法是有益的,哪些是做无用功,哪些则是帮倒忙。学习计算机体系结构的目的,不是让你去设计自己的 CPU(新的 ISA 或微架构),打败 Intel 和 ARM;也不是参与到 CPU 设计团队,改进现有的微架构;而是明白现代的处理器的能力与特性(例如流水线、多发射、分支预测、乱序执行等等指令级并行手段,内存局部性与 cache,多处理器的内存模型、能见度、重排序等等),在编程的时候通过适当组织代码和数据来发挥 CPU 的效能,避免 pitfalls。这两门课程该如何学?看哪些书?这里我告诉你一个通用的办法,去美国计算机系排名靠前的大学的课程主页,找到这两门课最近几年的课程大纲、讲义、参考书目、阅读材料、随堂练习、课后作业、编程实验、期末项目等,然后你就心里有数了。学习任何一门课程都要善于抓住主要矛盾、分清主次、突出重点,关键是掌握知识框架,学会以后真正有用的知识和技能,而不要把精力平均分配在一些琐事上。请允许我再次引用孟岩的观点:我(孟岩)主张,在具备基础之后,学习任何新东西,都要抓住主线,突出重点。对于关键理论的学习,要集中精力,速战速决。而旁枝末节和非本质性的知识内容,完全可以留给实践去零敲碎打。原因是这样的,任何一个高级的知识内容,其中都只有一小部分是有思想创新、有重大影响的,而其它很多东西都是琐碎的、非本质的。因此,集中学习时必须把握住真正重要那部分,把其它东西留给实践。对于重点知识,只有集中学习其理论,才能确保体系性、连贯性、正确性,而对于那些旁枝末节,只有边干边学能够让你了解它们的真实价值是大是小,才能让你留下更生动的印象。如果你把精力用错了地方,比如用集中大块的时间来学习那些本来只需要查查手册就可以明白的小技巧,而对于真正重要的、思想性东西放在平时零敲碎打,那么肯定是事倍功半,甚至适得其反。因此我对于市面上绝大部分开发类图书都不满——它们基本上都是面向知识体系本身的,而不是面向读者的。总是把相关的所有知识细节都放在一堆,然后一堆一堆攒起来变成一本书。反映在内容上,就是毫无重点地平铺直叙,不分轻重地陈述细节,往往在第三章以前就用无聊的细节谋杀了读者的热情。比如说操作系统,应该把精力主要放在进程管理与调度、内存管理、并发编程与同步、高效的IO等等,而不要过于投入到初始化(从 BIOS 加载引导扇区、设置 GDT、进入保护模式)这种一次性任务上。我发现国内讲 Linux 内核的书往往把初始化的细节放在前几章,而国外的书通常放附录,你可以体会一下。初始化对操作系统本身而言当然是重要的,但是对于在用户态写服务程序的人来说,弄清楚为什么要打开 PC 上的 A20 地址线真的有用处吗?(这不过是个历史包袱罢了。)再比方说《计算机网络》,关键之一是理解如何在底层有丢包、重包、乱序的条件下设计出可靠的网络协议,这不算难。难一点的是这个可靠协议能达到“既能充分利用带宽,又能做到足够公平(并发连接大致平均分享带宽)”。而不是学会手算 CRC32,这更适合放到信息论或别的课程里去讲。注意分清知识的层次。就好比造汽车与开汽车的区别,我认为一个司机的技能主要体现在各种道路条件和天气状况下都能安全驾驶(城市道路、高速公路、乡间公路 X 晴、雨、雪、雾),平安到达目的地。作为一名司机,了解汽车运行的基本原理当然是好事,可以有助于更好地驾驶和排除一些常见故障。但不宜喧宾夺主,只要你不真正从事汽车设计工作,你再怎么研究发动机、传动、转向,也不可能比汽车厂的工程师强,毕竟这是人家的全职工作。而且钻研汽车构造超过一定程度之后,对开好车就没多大影响了,成了个人兴趣爱好。“有的人学着学着成了语言专家,反而忘了自己原本是要解决问题来的。”(语出孟岩 )对于并发编程来说,掌握 mutex、condition variable 的正确用法,避免误用(例如防止 busy-waiting 和 data race)、避免性能 pitfalls,是一般服务端程序员应该掌握的知识。而如何实现高效的 mutex 则是 libc 和 kernel 开发者应该关心的事,随着硬件的发展(CPU 与内存之间互联方式的改变、核数的增加),最优做法也随之改变。如果你不能持续跟进这一领域的发展,那么你深入钻研之后掌握的知识到了几年之后可能反而成为累赘,当年针对当时硬件的最优特殊做法(好比说定制了自己的 mutex 或 lock-free 数据结构)在几年后有可能反而会拖低性能。还不如按最清晰的方式写代码,利用好语言和库的现成同步设施,让编译器和 libc 的作者去操心“与时俱进”的事。注意识别过时的知识。比方说《操作系统》讲磁盘IO调度往往会讲电梯算法,但是现在的磁盘普遍内置了这一功能(NCQ),无需操作系统操心了。如果你在一个比较好的学校,操作系统课程的老师应该能指出这些知识点,避免学生浪费精力;如果你全靠自学,我也没什么好办法,尽量用新版的书吧。类似的例子还有《计算机体系结构》中可能会讲 RISC CPU 流水线中的 delay slot,现在似乎也都废弃了。《计算机网络》中类似的情况也不少,首先是 OSI 七层模型已经被证明是扯淡的,现在国外流行的教材基本都按五层模型来讲(),如果你的教材还郑重其事地讲 OSI (还描绘成未来的希望),扔了换一本吧。其次,局域网层面,以太网一家独大(几乎成了局域网的代名词),FDDI/Token ring/ATM 基本没啥公司在用了。就说以太网,现在也用不到 CSMA/CD 机制(因为 10M 的同轴电缆、10M/100M 的 hub 都过时了,交换机也早就普及了),因此碰撞检测算法要求“以太网的最小帧长大于最大传播延迟的二倍”这种知识点了解一下就行了。另外一点是 low level 优化的知识非常容易过时,编码时要避免过度拟合(overfitting)。比方说目前国内一些教科书(特别是大一第一门编程语言的教程)还在传授“乘除法比加减法慢、浮点数运算比整数运算慢、位运算最快”这种过时的知识。现代通用 CPU 上的实际情况是整数的加减法和乘法运算几乎一样快,整数除法慢很多;浮点数的加减法和乘法运算几乎和整数一样快,浮点数除法慢很多。因此用加减法代替乘法(或用位运算代替算术运算)不见得能提速,反而让代码难懂。而且现代编译器可以把除数为小整数的整数除法转变为乘法来做,无需程序员操心。(目前用浮点数乘法代替浮点数除法似乎还是值得一做的,例如除以10改为乘以0.1,因为浮点运算的特殊性(不满足结合律和分配率),阻止了编译器优化。)类似的 low level 优化过时的例子是早年用汇编语言写了某流行图像格式的编解码器,但随着 CPU 微架构的发展,其并不比现代 C 语言(可能用上 SIMD)的版本更快,反而因为使用了 32-bit 汇编语言,导致往 64-bit 移植时出现麻烦。如果不能派人持续维护更新这个私有库,还不如用第三方的库呢。现在能用汇编语言写出比 C 语言更快的代码几乎只有一种可能:使用 CPU 的面向特定算法的新指令,例如 Intel 的新 CPU (将会)内置了 AES、CRC32、SHA1、SHA256 等算法的指令。不过主流的第三方库(例如 OpenSSL)肯定会用上这些手段,及时跟进即可,基本无需自己操刀。(再举一个例子,假如公司早先用汇编语言写了一个非常高效的大整数运算库,一直运转良好,原来写这个库的高人也升职或另谋高就了。Intel 在 2013 年发布了新微架构 Haswell,新增了 MULX 指令,可以进一步提高大整数乘法的效率
,那么贵公司是否有人持续跟进这些 CPU 的进化,并及时更新这个大整数运算库呢?或者直接用开源的 GMP 库,让 GMP 的作者去操心这些事情?)如果你要记住结论,一定要同时记住前提和适用条件。在错误的场合使用原本正确的结论的搞笑例子举不胜举。《Linux内核源码情景分析》上分析内核使用 GDT/LDT 表项的状况,得出进程数不超过 4090 的结论。如果你打算记住这个结论,一定要记住这是在 Linux 2.4.0 内核,32-bit Intel x86 平台上成立,新版的内核和其他硬件平台很可能不成立。看完书后千万不要张口就来“书上说 Linux 的最大进程数是 4090”。一个 Linux 进程最多创建 300 余个线程,这个结论成立的条件是 3GB 用户空间,线程栈为 10M 或 8M。在 64-bit 下不成立。Reactor 模式只能支持不超过 64 个 handle,这个结论成立的条件是 Windows 下使用 WaitForMultipleObjects 函数实现的 WFMO_Reactor,对于 Linux 下使用 poll/epoll 实现的 Reactor 则无此限制。C++ STL 的 vector 容器在 clear() 之后不会释放内存,需要 swap(empty vector),这是有意为之(C++11 里增加了 shrink_to_fit() 函数)。不要记成了所有 STL 容器都需要 swap(empty one) 来释放内存,事实上其他容器(map/set/list/deque)都只需要 clear() 就能释放内存。只有含 reserve()/capacity() 成员函数的容器才需要用 swap 来释放空间,而 C++ 里只有 vector 和 string 这两个符合条件。最后一点小建议,服务端开发这几年已经普及 64-bit 多核硬件平台,因此在学习操作系统的时候,可以不必太关心单核上特有的做法(在单核时代,内核代码进入临界区的办法之一是关中断,但到了多核时代,这个做法就行不通了),也不必太花精力在 32-bit 平台上。特别是 32-bit x86 为了能支持大内存,不得已有很多 work around 的做法(困难在于 32-bit 地址空间不够将全部物理内存映射入内核),带来了额外的复杂性,这些做法当时有其积极意义,但现在去深入学似乎不太值得。关于项目,我出两个练手题目:一、多机数据处理。有 10 台机器,每台机器上保存着 10 亿个 64-bit 整数(不一定刚好 10 亿个,可能有上下几千万的浮动),一共约 100 亿个整数(其实一共也就 80GB 数据,不算大,选这个量级是考虑了 VPS 虚拟机的容量,便于实验)。编程求出:1. 这些数的平均数。2. 这些数的中位数。3. 出现次数最多的 100 万个数。*4. (附加题)对这 100 亿个整数排序,结果顺序存放到这 10 台机器上。*5. (附加健壮性要求)你的程序应该能正确应对输入数据的各种分布(均匀、正态、Zipf)。*6. (附加伸缩性要求)你的程序应该能平滑扩展到更多的机器,支持更大的数据量。比如 20 台机器、一共 200 亿个整数,或者 50 台机器、一共 500 亿个整数。二、N-皇后问题的多机并行求解。利用多台机器求出 N-皇后问题有多少个解。(注意目前的世界纪录是 N = 26, )1. 8 皇后问题在单机上的运算时间是毫秒级,有 92 个解,编程实现之。2. 研究 N-皇后问题的并行算法,写一个单机多线程程序,争取达到线性加速比(以 CPU 核数计)。再设法将算法扩展到多机并行。3. 用 10 台 8 核的机器(一共 80 个 CPU cores),求解 19-皇后和 20-皇后问题,看看分别需要多少运行时间。你的方案能否平滑扩展到更多的机器?*4. (附加题)如果这 10 台机器的型号不一,有 8 核也有 16 核,有旧 CPU 也有更快的新 CPU,你该采用何种负载均衡策略,以求缩短求解问题的时间(至少比 plain round-robin 算法要好)?你可以用 Amazon EC2 或 Google GCE 来验证你的程序的正确性和性能,这两家的虚拟机都是按小时(甚至更短)收费,开 10 台虚拟机做一个下午的实验也花不了多少钱。
看书容易迷失,从成熟的工程开始如nginx, 看不懂的地方从书中找答案,会学的很快。
已有帐号?
无法登录?
社交帐号登录Linux C++ 服务器端这条线怎么走?一年半能做出什么_百度知道
Linux C++ 服务器端这条线怎么走?一年半能做出什么
提问者采纳
能找到要你的地方就赚了.Net吧。想弄服务端还是学Java或者,但是很可能找不到真正直接用C++写服务端的太少了。C++只能说是赌博。正常情况下需要C++写的服务端肯定不是没基础能搞定的(哪怕学比一年半更长的时间)
来自团队:
其他类似问题
为您推荐:
服务器端的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁Linux C++ 服务器端这条线怎么走?一年半能做出什么_百度知道
Linux C++ 服务器端这条线怎么走?一年半能做出什么
提问者采纳
(这不过是个历史包袱罢了、10M&#47既然你是在校学生,现在也用不到 CSMA&#47,都是站在服务端程序员的角度,不是让你去发明自己操作系统内核、乱序执行等等指令级并行手段。总是把相关的所有知识细节都放在一堆,关键是掌握知识框架、传动。现代通用 CPU 上的实际情况是整数的加减法和乘法运算几乎一样快,突出重点,因此碰撞检测算法要求“以太网的最小帧长大于最大传播延迟的二倍”这种知识点了解一下就行了,从实用主义(pragmatic)的立场出发而言的,如果你的教材还郑重其事地讲 OSI (还描绘成未来的希望)、雾)、重包;Token ring&#47,现在国外流行的教材基本都按五层模型来讲(Internet protocol suite)、condition variable 的正确用法。”(语出孟岩 快速掌握一个语言最常用的50%)对于并发编程来说,改进现有的微架构、重排序等等)。学习计算机体系结构的目的、分清主次。如果你在一个比较好的学校,去美国计算机系排名靠前的大学的课程主页。初始化对操作系统本身而言当然是重要的.net/myan/article/details/5877305" target="_blank">http。就好比造汽车与开汽车的区别;ATM 基本没啥公司在用了,甚至适得其反,这不算难、乡间公路 X 晴;100M 的 hub 都过时了,让编译器和 libc 的作者去操心“与时俱进”的事、雨。如果你不能持续跟进这一领域的发展、乱序的条件下设计出可靠的网络协议。因此我对于市面上绝大部分开发类图书都不满——它们基本上都是面向知识体系本身的。还不如按最清晰的方式写代码、位运算最快”这种过时的知识。原因是这样的,才能确保体系性。我发现国内讲 Linux 内核的书往往把初始化的细节放在前几章、编程实验。类似的例子还有《计算机体系结构》中可能会讲 RISC CPU 流水线中的 delay slot。就说以太网,我也没什么好办法,避免 pitfalls。而旁枝末节和非本质性的知识内容,扔了换一本吧.net/myan/article/details/5877305我(孟岩)主张、多发射,交换机也早就普及了)、随堂练习。)再比方说《计算机网络》,我认为一个司机的技能主要体现在各种道路条件和天气状况下都能安全驾驶(城市道路、浮点数运算比整数运算慢、分支预测,避免学生浪费精力。“有的人学着学着成了语言专家,而对于真正重要的,也不可能比汽车厂的工程师强?这里我告诉你一个通用的办法。难一点的是这个可靠协议能达到“既能充分利用带宽,成了个人兴趣爱好,学习任何新东西;而是明白现代的处理器的能力与特性(例如流水线,阻止了编译器优化、核数的增加)://blog、连贯性。学习操作系统的目的。Modern Microprocessors这两门课程该如何学。但不宜喧宾夺主,弄清楚为什么要打开 PC 上的 A20 地址线真的有用处吗,编码时要避免过度拟合(overfitting),对开好车就没多大影响了,打败 Linux。下面简单谈谈我对学习这两门课的看法和建议;如果你全靠自学。而不是学会手算 CRC32,你可以体会一下,而且编程语言和数据结构的基础还不错,毕竟这是人家的全职工作、转向、雪。因此,是一般服务端程序员应该掌握的知识,又能做到足够公平(并发连接大致平均分享带宽)”;浮点数的加减法和乘法运算几乎和整数一样快,关键之一是理解如何在底层有丢包。作为一名司机,作为程序员应该如何才能充分利用好这个环境,首先是 OSI 七层模型已经被证明是扯淡的?看哪些书、UNP 等书,只要你不真正从事汽车设计工作,在具备基础之后,打败 Intel 和 ARM,把其它东西留给实践。反映在内容上,无需操作系统操心了,当年针对当时硬件的最优特殊做法(好比说定制了自己的 mutex 或 lock-free 数据结构)在几年后有可能反而会拖低性能,局域网层面,这更适合放到信息论或别的课程里去讲,你再怎么研究发动机。而且钻研汽车构造超过一定程度之后、非本质的、内存管理,多处理器的内存模型。(目前用浮点数乘法代替浮点数除法似乎还是值得一做的、课后作业,现在似乎也都废弃了、参考书目,只有边干边学能够让你了解它们的真实价值是大是小,哪些做法是有益的,不分轻重地陈述细节,而对于那些旁枝末节,然后一堆一堆攒起来变成一本书,而不要过于投入到初始化(从 BIOS 加载引导扇区,但是对于在用户态写服务程序的人来说。而如何实现高效的 mutex 则是 libc 和 kernel 开发者应该关心的事,找到这两门课最近几年的课程大纲.csdn,可以有助于更好地驾驶和排除一些常见故障;也不是成为内核开发人员,要集中精力、并发编程与同步,不是让你去设计自己的 CPU(新的 ISA 或微架构)。对于重点知识。请允许我再次引用孟岩的观点,而国外的书通常放附录、避免性能 pitfalls;而是理解操作系统为用户态进程提供了怎样的运行环境,而不是面向读者的、讲义。如果你把精力用错了地方,而不要把精力平均分配在一些琐事上,最优做法也随之改变、思想性东西放在平时零敲碎打。注意分清知识的层次、高速公路。比如说操作系统,无需程序员操心,内存局部性与 cache,但是现在的磁盘普遍内置了这一功能(NCQ),而其它很多东西都是琐碎的,都要抓住主线,那么肯定是事倍功半。另外一点是 low level 优化的知识非常容易过时,速战速决。注意识别过时的知识,哪些是做无用功、进入保护模式)这种一次性任务上,尽量用新版的书吧,反而忘了自己原本是要解决问题来的。比方说《操作系统》讲磁盘IO调度往往会讲电梯算法,其中都只有一小部分是有思想创新。其次、突出重点,任何一个高级的知识内容。对于关键理论的学习、能见度,整数除法慢很多、阅读材料,比如用集中大块的时间来学习那些本来只需要查查手册就可以明白的小技巧、设置 GDT,哪些则是帮倒忙,在编程的时候通过适当组织代码和数据来发挥 CPU 的效能,FDDI&#47。学习任何一门课程都要善于抓住主要矛盾;也不是参与到 CPU 设计团队,完全可以留给实践去零敲碎打,往往在第三章以前就用无聊的细节谋杀了读者的热情,反而让代码难懂,学会以后真正有用的知识和技能。而且现代编译器可以把除数为小整数的整数除法转变为乘法来做、高效的IO等等,掌握 mutex,操作系统课程的老师应该能指出这些知识点,才能让你留下更生动的印象、期末项目等.csdn,以太网一家独大(几乎成了局域网的代名词),应该把精力主要放在进程管理与调度,那么你深入钻研之后掌握的知识到了几年之后可能反而成为累赘。《计算机网络》中类似的情况也不少。因此用加减法代替乘法(或用位运算代替算术运算)不见得能提速,然后你就心里有数了,了解汽车运行的基本原理当然是好事:<a href="http,浮点数除法慢很多,集中学习时必须把握住真正重要那部分.1、正确性://blog,平安到达目的地、有重大影响的;CD 机制(因为 10M 的同轴电缆,我认为应该在《操作系统》和《计算机体系结构》这两门课上下功夫,只有集中学习其理论,避免误用(例如防止 busy-waiting 和 data race),利用好语言和库的现成同步设施,例如除以10改为乘以0,因为浮点运算的特殊性(不满足结合律和分配率),随着硬件的发展(CPU 与内存之间互联方式的改变,就是毫无重点地平铺直叙,然后才去读编程方面的 APUE。比方说目前国内一些教科书(特别是大一第一门编程语言的教程)还在传授“乘除法比加减法慢
来自团队:
其他类似问题
为您推荐:
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁}

我要回帖

更多关于 一年半 英文 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信