VM虚拟机双网卡配置,主机有两块网卡,一块网卡独立的外网,一块独立内网和外网的区别,想实现虚拟机同时访问内外网

Ubuntu配置双网卡_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
3页1下载券1页免费10页免费2页2下载券2页免费3页免费18页免费66页免费81页5下载券8页免费
喜欢此文档的还喜欢3页1下载券6页免费39页1下载券2页2下载券64页免费
Ubuntu配置双网卡|
把文档贴到Blog、BBS或个人站等:
普通尺寸(450*500pix)
较大尺寸(630*500pix)
你可能喜欢win2003上装有双网卡,一块是接电信VNP专线,一块接内网,但现在只能用一块网卡,不能同时用?
[问题点数:20分,无满意结帖,结帖人cycc]
win2003上装有双网卡,一块是接电信VNP专线,一块接内网,但现在只能用一块网卡,不能同时用?
[问题点数:20分,无满意结帖,结帖人cycc]
不显示删除回复
显示所有回复
显示星级回复
显示得分回复
只显示楼主
相关帖子推荐:
本帖子已过去太久远了,不再提供回复功能。coolerfeng 的BLOG
用户名:coolerfeng
文章数:243
评论数:657
访问量:990108
注册日期:
阅读量:3181
阅读量:4034
51CTO推荐博文
对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是 bonding ;
另一种情况就是服务器的一个网卡失效或者网络连接意外断开,如果做了bonding就可以切换到另一个网卡的网络连接上.保证服务的不中断.
详细的资料可以参考:
下面试验一下热备模式.
首先要看linux是否支持bonding,RHEL4已经默认支持了.(大部分发行版都支持)
# modinfo bonding
filename:&&&&&& /lib/modules/2.6.18-8.el5/kernel/drivers/net/bonding/bonding.koauthor:&&&&&&&& Thomas Davis,
and many othersdescription:&&& Ethernet Channel Bonding Driver, v3.0.3version:&&&&&&& 3.0.3license:&&&&&&& GPLsrcversion:&&&& C2FDF28EF7D98
如果有类似上面的信息输出,说明已经支持了.
如果没有,说明内核不支持bonding,需要重新编译内核
编译内核的步骤这里就不多写了,在make menuconfig里面
找到Bonding driver support这样的对话框,选中它.
如果是模块编译,还需要挂载模块.挂载bonding 模块的方法;
[root@localhost#] modprobe bonding
如果/sbin/ifenslave没有,我们还需要把它也单独编译出来[root@lin:/home/beinan#] cd /usr/src/linux-2.6.20/Documentation/networking[root@lin:/home/networking#] gcc -Wall -Wstrict-prototypes -O -I/usr/src/linux-2.6.20/include ifenslave.c -o ifenslave
[root@lin:/home/networking#] cp ifenslave /sbin/ifenslave
1.编辑虚拟网络接口配置文件,指定网卡IP&
没有这个文件我们可以从以前的配置文件复制一个过来,减少输入的文字.& #cd /etc/sysconfig/network-scripts/
#cp ifcfg-eth0 ifcfg-bond0
#vi&ifcfg-bond0& 将第一行改成&DEVICE=bond0& #&cat&ifcfg-bond0 DEVICE=bond0 BOOTPROTO=static IPADDR=192.168.1.200
NETMASK=255.255.255.0 BROADCAST=192.168.1.255 ONBOOT=yes TYPE=Ethernet
接下来修改以前的网卡的设置[root@rhas-13&network-scripts]#&cat&ifcfg-eth0& DEVICE=eth0 ONBOOT=yes BOOTPROTO=none [root@rhas-13&network-scripts]#&cat&ifcfg-eth1& DEVICE=eth0 ONBOOT=yes BOOTPROTO=none //网卡启动协议.这里我试验了static,dhcp,none发现没有什么区别&
3&#&vi&/etc/moprobe.conf& (旧的版本可能是modules.conf)编辑&/etc/moprobe.conf&文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为&bond0&   加入下列行& alias&bond0&bonding& options&bond0&miimon=100&mode=1
alias net-pf-10 off& //这行是关闭ipv6支持,也可以不要)
说明:miimon是用来进行链路监测的。&比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 &&&mode=0表示load&balancing&(round-robin)为负载均衡方式,两块网卡都工作。 &&&mode=1表示fault-tolerance&(active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.&& bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 4&#&vi&/etc/rc.d/rc.local& 加入& ifenslave&bond0&eth0&eth1&
重启后我们用ifconfig查看网卡信息,可以看到多出一个bond0网卡.
bond0&&&& Link encap:Ethernet& HWaddr 00:0C:29:C2:B3:44& &&&&&&&&& inet addr:192.168.1.200& Bcast:192.168.1.255& Mask:255.255.255.0&&&&&&&&& UP BROADCAST RUNNING MASTER MULTICAST& MTU:1500& Metric:1&&&&&&&&& RX packets:48 errors:0 dropped:0 overruns:0 frame:0&&&&&&&&& TX packets:38 errors:0 dropped:0 overruns:0 carrier:0&&&&&&&&& collisions:0 txqueuelen:0 &&&&&&&&& RX bytes: KiB)& TX bytes: KiB)
eth0&&&&& Link encap:Ethernet& HWaddr 00:0C:29:C2:B3:44& &&&&&&&&& UP BROADCAST RUNNING SLAVE MULTICAST& MTU:1500& Metric:1&&&&&&&&& RX packets:44 errors:0 dropped:0 overruns:0 frame:0&&&&&&&&& TX packets:46 errors:0 dropped:0 overruns:0 carrier:0&&&&&&&&& collisions:0 txqueuelen:1000 &&&&&&&&& RX bytes: KiB)& TX bytes: KiB)&&&&&&&&& Interrupt:169 Base address:0x2000
eth1&&&&& Link encap:Ethernet& HWaddr 00:0C:29:C2:B3:44& &&&&&&&&& UP BROADCAST RUNNING SLAVE MULTICAST& MTU:1500& Metric:1&&&&&&&&& RX packets:8 errors:0 dropped:0 overruns:0 frame:0&&&&&&&&& TX packets:0 errors:0 dropped:0 overruns:0 carrier:0&&&&&&&&& collisions:0 txqueuelen:1000 &&&&&&&&& RX bytes:861 (861.0 b)& TX bytes:0 (0.0 b)&&&&&&&&& Interrupt:193 Base address:0x2080
lo&&&&&&& Link encap:Local Loopback& &&&&&&&&& inet addr:127.0.0.1& Mask:255.0.0.0&&&&&&&&& UP LOOPBACK RUNNING& MTU:16436& Metric:1&&&&&&&&& RX packets:12 errors:0 dropped:0 overruns:0 frame:0&&&&&&&&& TX packets:12 errors:0 dropped:0 overruns:0 carrier:0&&&&&&&&& collisions:0 txqueuelen:0 &&&&&&&&& RX bytes:960 (960.0 b)& TX bytes:960 (960.0 b)
那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat&/etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能.
可以查看到bond0的工作状态[root@localhost ~]# cat /proc/net/bonding/bond0Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006)
Bonding Mode: fault-tolerance (active-backup)Primary Slave: NoneCurrently Active Slave: eth0MII Status: upMII Polling Interval (ms): 100Up Delay (ms): 0Down Delay (ms): 0
Slave Interface: eth0MII Status: upLink Failure Count: 0Permanent HW addr: 00:0c:29:c2:b3:44
Slave Interface: eth1MII Status: upLink Failure Count: 0Permanent HW addr: 00:0c:29:c2:b3:4e
以上是一种实现方法.公司的数据库服务器上采用了另一种配置方法
主要区别在网卡的配置文件上:
vi ifcfg-eth0
DEVICE=eth0#USERCTL=noBOOTPROTO=noneONBOOT=yesMASTER=bond0SLAVE=yes
ifcfg-eth1中也加入红色的两行,
/etc/rc.local中的ifenslave&bond0&eth0&eth1& 可以省略掉.
在虚拟机中试验一下效果.
从另一台机器ping我们刚才设置的IP地址,然后在虚拟机vmware下面,点其中的一个网卡
选中disconnect(断开)
可以看到ping只是出现了两个time out后就又恢复了正常.说明我们的配置起作用了.
650) this.width=650;" onclick='window.open("/viewpic.php?refimg=" + this.src)' style="width: 710 height: 499px" alt="" src="/attachment/872625.jpg" border="0" />
需要说明的是如果想做成负载均衡,仅仅设置这里options&bond0&miimon=100&mode=0是不够的,还需要设置交换机的端口.
从原理分析一下(bond运行在mode 0下):mode 0下bond所绑定的网卡的IP都被修改成一样的mac地址,如果这些网卡都被接在同一个交换机,那么交换机的arp表里这个mac地址对应的端口就有多个,那么交换机接受到发往这个mac地址的包应该往哪个端口转发呢?正常情况下mac地址是全球唯一的,一个mac地址对应多个端口肯定使交换机迷惑了。所以mode0下的bond如果连接到交换机,交换机这几个端口应该采取聚合方式(cisco称为ethernetchannel,foundry称为portgroup),因为交换机做了聚合后,聚合下的几个端口也被捆绑成一个mac地址
由于家里没有三层交换机,这里的试验留给网友自行验证了.
&本文出自 “” 博客,请务必保留此出处
了这篇文章
类别:┆阅读(0)┆评论(0)
16:26:50 21:11:34 08:45:45 10:26:10 18:26:47 12:17:44 12:15:05 10:36:37 10:41:48 17:24:50Openstack的网卡设置 & 陈沙克日志
- 147,718 views - 51,681 views - 50,711 views - 38,462 views - 36,886 views - 31,948 views - 31,153 views - 30,185 views - 28,912 views - 28,280 views
© 2012单位电脑,有两块网卡,机器装有vm虚拟机。现想:一块网卡供主机上内网用(单位系统网),另一块供虚拟机_百度知道
单位电脑,有两块网卡,机器装有vm虚拟机。现想:一块网卡供主机上内网用(单位系统网),另一块供虚拟机
怎么实现?内外网都有固定地址,另一块供虚拟机上外网用?那么主机岂不是又冲突地址了。可否,机器装有vm虚拟机?如果虚拟机用第二块网卡的话。现就是想分开来使用,是不是主机上两块网卡必须同时启用单位电脑?怎么设置。现想:一块网卡供主机上内网用(单位系统网),有两块网卡
实现VPN的功能,可以联网玩游戏,这就是虚拟网卡。 可以模拟集线器功能,再选择从列表中选取,还是要连 Lotus Note 抓数据,选中网卡下一步.使的系统把此软件识别成一块网卡,选中它。不论你是要找网芳虚拟网卡 即用软件模拟网络环境 windows系统自带此软件 进入添加硬件向导,安全上不存在问题,添加新硬件,查找制造商Microsoft有一个设备Microsoft Loopback Adapter,都可以连接到虚拟集线器(HUB)上与其它电脑组成局域网,都可以如愿所偿,会多出一个新网卡. 能够模拟成有 VPN 的网卡.可以互相访问,安装完成后,信息都经过加密,查看硬件管理器,进而存取公司内的各项服务.在此虚拟的局域网上能进行所有物理存在的局域网的操作,有了这东西,只要可以访问外网,检测过后选择添加新设备,让你可以直接从公司外部连接到内部的 VPN 服务器上.该软件能够突破防火墙拦截
其他类似问题
vm虚拟机的相关知识
其他1条回答
桥接就可以了。在虚拟机安装过程中有选项楼主你好,虚拟机共享你那个网络,使用虚拟机不需要另外网卡。你使用一块网卡配置好本机的网络,只是和你的机器共享网络使用
您可能关注的推广
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁}

我要回帖

更多关于 外网访问内网电脑 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信