《LINUX教程:基于 Open vSwitch 的 OpenFlow 实践》要点:
本文介绍了LINUX教程:基于 Open vSwitch 的 OpenFlow 实践,希望对您有用。如果有疑问,可以联系我们。
Open vSwitch(下面简称为 OVS)是由 Nicira Networks 主导的,运行在虚拟化平台(例如 KVM,Xen)上的虚拟交换机.在虚拟化平台上,OVS 可以为动态变化的端点提供 2 层交换功能,很好的控制虚拟网络中的拜访策略、网络隔离、流量监控等等.
OVS 遵循 Apache 2.0 许可证, 能同时支持多种尺度的管理接口和协议.OVS 也提供了对 OpenFlow 协议的支持,用户可以使用任何支持 OpenFlow 协议的控制器对 OVS 进行远程管理控制.
在 OVS 中, 有几个异常重要的概念:
OVS 可以安装在主流的 Linux 操作系统中,用户可以选择直接安装编译好的软件包,或者下载源码进行编译安装.
在我们的实验情况中,使用的操作系统是 64 位 Ubuntu Server 12.04.3 LTS,并通过源码编译的方式安装了 Open vSwitch 1.11.0
OVS 的源码编译安装方式可以参考官方文档 How to Install Open vSwitch on Linux, FreeBSD and NetBSD.
安装完毕后,反省 OVS 的运行情况:
1
2
3
4
5
|
$ ps -ea | grep ovs 12533 ? 00:00:00 ovs_workq 12549 ? 00:00:04 ovsdb-server 12565 ? 00:00:48 ovs-vswitchd 12566 ? 00:00:00 ovs-vswitchd |
查看 OVS 的版本信息, 我们安装版本的是 1.11.0
1
2
3
|
$ ovs-appctl --version ovs-appctl (Open vSwitch) 1.11.0 Compiled Oct 28 2013 14:17:16 |
查看 OVS 支持的 OpenFlow 协定的版本
1
2
3
4
|
$ ovs-ofctl --version ovs-ofctl (Open vSwitch) 1.11.0 Compiled Oct 28 2013 14:17:17 OpenFlow versions 0x1:0x4 |
OpenFlow 是用于管理交换机流表的协议,ovs-ofctl 则是 OVS 提供的命令行工具.在没有配置 OpenFlow 控制器的模式下,用户可以使用 ovs-ofctl 命令通过 OpenFlow 协议去连接 OVS,创立、修改或删除 OVS 中的流表项,并对 OVS 的运行状况进行动态监控.
在 OpenFlow 的白皮书中,Flow 被定义为某个特定的网络流量.例如,一个 TCP 连接就是一个 Flow,或者从某个 IP 地址发出来的数据包,都可以被认为是一个 Flow.支持 OpenFlow 协议的交换机应该包括一个或者多个流表,流表中的条目包括:数据包头的信息、匹配成功后要执行的指令和统计信息.
当数据包进入 OVS 后,会将数据包和流表中的流表项进行匹配,如果发现了匹配的流表项,则执行该流表项中的指令集.相反,如果数据包在流表中没有发现任何匹配,OVS 会通过节制通道把数据包发到 OpenFlow 节制器中.
在 OVS 中,流表项作为 ovs-ofctl 的参数,采纳如下的格式:字段=值.如果有多个字段,可以用逗号或者空格分开.一些常用的字段列举如下:
对于 add−flow,add−flows 和 mod−flows 这三个命令,还需要指定要执行的动作:actions=[target][,target...]
一个流规则中可能有多个动作,依照指定的先后顺序执行.
常见的操作有:
在本例中, 我们会创立一个不连接到任何控制器的 OVS 交换机,并演示如何使用 ovs-octl 命令操作 OpenFlow 流表.
创立一个新的 OVS 交换机
1
|
$ ovs-vsctl add-br ovs-switch |
创立一个端口 p0,设置端口 p0 的 OpenFlow 端口编号为 100(如果在创立端口的时候没有指定 OpenFlow 端口编号,OVS 会自动生成一个).
1
|
$ ovs-vsctl add-port ovs-switch p0 -- set Interface p0 ofport_request=100 |
设置网络接口设备的类型为“internal”.对于 internal 类型的的网络接口,OVS 会同时在 Linux 系统中创立一个可以用来收发数据的模拟网络设备.我们可以为这个网络设备配置 IP 地址、进行数据监听等等.
1
2
3
4
5
6
7
8
9
10
|
$ ovs-vsctl set Interface p0 type=internal $ ethtool -i p0 driver: openvswitch version: firmware-version: bus-info: supports-statistics: no supports-test: no supports-eeprom-access: no supports-register-dump: no |
为了避免网络接口上的地址和本机已有网络地址冲突,我们可以创立一个虚拟网络空间 ns0,把 p0 接口移入网络空间 ns0,并配置 IP 地址为 192.168.1.100
1
2
3
4
|
$ ip netns add ns0 $ ip link set p0 netns ns0 $ ip netns exec ns0 ip addr add 192.168.1.100/24 dev p0 $ ip netns exec ns0 ifconfig p0 promisc up |
使用同样的办法创建端口 p1、p2
创建所有的端口之后, 查看 OVS 交换机的信息
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
$ ovs-vsctl show 30282710-d401-4187-8e13-52388f693df7 Bridge ovs-switch
Port "p0"
Interface "p0"
type: internal
Port "p2"
Interface "p2"
type: internal
Port "p1"
Interface "p1"
type: internal
Port ovs-switch
Interface ovs-switch
type: internal
|
使用 ovs-ofctl 创立并测试 OpenFlow 命令
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
$ ovs-ofctl show ovs-switch OFPT_FEATURES_REPLY (xid=0x2): dpid:00001232a237ea45 n_tables:254, n_buffers:256 capabilities: FLOW_STATS TABLE_STATS PORT_STATS QUEUE_STATS ARP_MATCH_IP actions: OUTPUT SET_VLAN_VID SET_VLAN_PCP STRIP_VLAN SET_DL_SRC SET_DL_DST SET_NW_SRC SET_NW_DST SET_NW_TOS SET_TP_SRC SET_TP_DST ENQUEUE 100(p0): addr:54:01:00:00:00:00
config: PORT_DOWN
state: LINK_DOWN
speed: 0 Mbps now, 0 Mbps max
101(p1): addr:54:01:00:00:00:00
config: PORT_DOWN
state: LINK_DOWN
speed: 0 Mbps now, 0 Mbps max
102(p2): addr:54:01:00:00:00:00
config: PORT_DOWN
state: LINK_DOWN
speed: 0 Mbps now, 0 Mbps max
LOCAL(ovs-switch): addr:12:32:a2:37:ea:45
config: 0
state: 0
speed: 0 Mbps now, 0 Mbps max
OFPT_GET_CONFIG_REPLY (xid=0x4): frags=normal miss_send_len=0 |
如果想获得网络接口的 OpenFlow 编号,也可以在 OVS 的数据库中查询
1
2
|
$ ovs-vsctl get Interface p0 ofport 100 |
查看 datapath 的信息
1
2
3
4
5
6
7
8
9
|
$ ovs-dpctl show system@ovs-system: lookups: hit:12173 missed:712 lost:0 flows: 0 port 0: ovs-system (internal) port 1: ovs-switch (internal) port 2: p0 (internal) port 3: p1 (internal) port 4: p2 (internal) |
屏障所有进入 OVS 的以太网广播数据包
1
|
$ ovs-ofctl add-flow ovs-switch "table=0, dl_src=01:00:00:00:00:00/01:00:00:00:00:00, actions=drop" |
屏障 STP 协议的广播数据包
1
|
$ ovs-ofctl add-flow ovs-switch "table=0, dl_dst=01:80:c2:00:00:00/ff:ff:ff:ff:ff:f0, actions=drop" |
添加新的 OpenFlow 条目,改动从端口 p0 收到的数据包的源地址为 9.181.137.1
1
2
|
$ ovs-ofctl add-flow ovs-switch "priority=1 idle_timeout=0,\ in_port=100,actions=mod_nw_src:9.181.137.1,normal"
|
从端口 p0(192.168.1.100)发送测试数据到端口 p1(192.168.1.101)
1
|
$ ip netns exec ns0 ping 192.168.1.101 |
在接收端口 p1 监控数据,发现接收到的数据包的来源已经被改动为 9.181.137.1
1
2
3
4
5
|
$ ip netns exec ns1 tcpdump -i p1 icmp tcpdump: verbose output suppressed, use -v or -vv for full protocol decode listening on p1, link-type EN10MB (Ethernet), capture size 65535 bytes 15:59:16.885770 IP 9.181.137.1 > 192.168.1.101: ICMP echo request, id 23111, seq 457, length 64 15:59:17.893809 IP 9.181.137.1 > 192.168.1.101: ICMP echo request, id 23111, seq 458, length 64 |
添加新的 OpenFlow 条款,重定向所有的 ICMP 数据包到端口 p2
1
|
$ ovs-ofctl add-flow ovs-switch idle_timeout=0,dl_type=0x0800,nw_proto=1,actions=output:102 |
从端口 p0 (192.168.1.100)发送数据到端口 p1(192.168.1.101)
1
|
$ ip netns exec ns0 ping 192.168.1.101 |
在端口 p2 上监控数据,发现数据包已被转发到端口 p2
1
2
3
4
5
|
$ ip netns exec ns3 tcpdump -i p2 icmp tcpdump: verbose output suppressed, use -v or -vv for full protocol decode listening on p2, link-type EN10MB (Ethernet), capture size 65535 bytes 16:07:35.677770 IP 192.168.1.100 > 192.168.1.101: ICMP echo request, id 23147, seq 25, length 64 16:07:36.685824 IP 192.168.1.100 > 192.168.1.101: ICMP echo request, id 23147, seq 26, length 64 |
除了使用“ping”、“tcpdump”和“iperf” 等 Linux 命令以外,我们也可以使用 OVS 提供的 ovs-appctl ofproto/trace 工具来测试 OVS 对数据包的转发状况.ovs-appctl ofproto/trace 可以用来生成测试用的模拟数据包,并一步步的展示 OVS 对数据包的流处置过程.在以下的例子中,我们演示一下如何使用这个命令:
改动端口 p1 的 VLAN tag 为 101,使端口 p1 成为一个隶属于 VLAN 101 的端口
1
|
$ ovs-vsctl set Port p1 tag=101 |
现在由于端口 p0 和 p1 属于不同的 VLAN,它们之间无法进行数据交换.我们使用 ovs-appctl ofproto/trace 生成一个从端口 p0 发送到端口 p1 的数据包,这个数据包不包括任何 VLAN tag,并观察 OVS 的处理过程
1
2
3
4
5
6
7
8
9
10
11
12
|
$ ovs-appctl ofproto/trace ovs-switch in_port=100,dl_src=66:4e:cc:ae:4d:20, dl_dst=46:54:8a:95:dd:f8 -generate Flow:metadata=0,in_port=100,vlan_tci=0x0000,dl_src=66:4e:cc:ae:4d:20, dl_dst=46:54:8a:95:dd:f8,dl_type=0x0000
Rule: table=0 cookie=0 priority=0 OpenFlow actions=NORMAL no learned MAC for destination, flooding Final flow: unchanged Relevant fields: skb_priority=0,in_port=100,vlan_tci=0x0000/0x1fff,\ dl_src=66:4e:cc:ae:4d:20,dl_dst=46:54:8a:95:dd:f8,dl_type=0x0000,nw_frag=no Datapath actions: 4,1 |
在第一行输出中,“Flow:”之后的字段描述了输入的流的信息.由于我们没有指定太多信息,所以多半字段 (例如 dl_type 和 vlan_tci)被 OVS 设置为空值.
在第二行的输出中,“Rule:” 之后的字段描述了匹配胜利的流表项.
在第三行的输出中,“OpenFlow actions”之后的字段描写了实际执行的操作.
最后一段以”Final flow”开始的字段是整个处置过程的总结,“Datapath actions: 4,1”代表数据包被发送到 datapath 的 4 和 1 号端口.
创建一条新的 Flow:对于从端口 p0 进入交换机的数据包,如果它不包括任何 VLAN tag,则自动为它添加 VLAN tag 101
1
2
|
$ ovs-ofctl add-flow ovs-switch "priority=3,in_port=100,dl_vlan=0xffff,\ actions=mod_vlan_vid:101,normal" |
再次尝试从端口 p0 发送一个不包括任何 VLAN tag 的数据包,发现数据包进入端口 p0 之后, 会被加上 VLAN tag101, 同时转发到端口 p1 上
1
2
3
4
5
6
7
8
9
10
11
12
13
|
$ ovs-appctl ofproto/trace ovs-switch in_port=100,dl_src=66:4e:cc:ae:4d:20, dl_dst=46:54:8a:95:dd:f8 –generate Flow: metadata=0,in_port=100,vlan_tci=0x0000,dl_src=66:4e:cc:ae:4d:20, dl_dst=46:54:8a:95:dd:f8,dl_type=0x0000 Rule: table=0 cookie=0 priority=3,in_port=100,vlan_tci=0x0000 OpenFlow actions=mod_vlan_vid:101,NORMAL forwarding to learned port Final flow: metadata=0,in_port=100,dl_vlan=101,dl_vlan_pcp=0,dl_src=66:4e:cc:ae:4d:20, dl_dst=46:54:8a:95:dd:f8,dl_type=0x0000 Relevant fields: skb_priority=0,in_port=100,vlan_tci=0x0000/0x1fff,dl_src=66:4e:cc:ae:4d:20, dl_dst=46:54:8a:95:dd:f8,dl_type=0x0000,nw_frag=no Datapath actions: 3 |
反过来从端口 p1 发送数据包,由于 p1 如今是带有 VLAN tag 101 的 Access 类型的端口,所以数据包进入端口 p1 之后,会被 OVS 添加 VLAN tag 101 并发送到端口 p0
1
2
3
4
5
6
7
8
9
10
11
12
|
$ ovs-appctl ofproto/trace ovs-switch in_port=101,dl_dst=66:4e:cc:ae:4d:20, dl_src=46:54:8a:95:dd:f8 -generate Flow: metadata=0,in_port=101,vlan_tci=0x0000,dl_src=46:54:8a:95:dd:f8, dl_dst=66:4e:cc:ae:4d:20,dl_type=0x0000 Rule: table=0 cookie=0 priority=0 OpenFlow actions=NORMAL forwarding to learned port Final flow: unchanged Relevant fields: skb_priority=0,in_port=101,vlan_tci=0x0000,dl_src=46:54:8a:95:dd:f8, dl_dst=66:4e:cc:ae:4d:20,dl_type=0x0000,nw_frag=no Datapath actions: push_vlan(vid=101,pcp=0),2 |
查看互换机中的所有 Table
1
|
ovs-ofctl dump-tables ovs-switch |
查看互换机中的所有流表项
1
|
ovs−ofctl dump−flows ovs-switch |
删除编号为 100 的端口上的所有流表项
1
|
ovs-ofctl del-flows ovs-switch "in_port=100" |
查看互换机上的端口信息
1
|
ovs-ofctl show ovs-switch |
一方面,OpenFlow 控制器可以通过 OpenFlow 协议连接到任何支持 OpenFlow 的交换机,控制器通过和交换机交换流表规则来控制数据流向.另一方面, OpenFlow 控制器向用户提供的界面或者接口,用户可以通过界面对网络架构进行动态的改动,改动交换机的流表规则等等.Floodlight 是一个基于 Apache 协议,使用 Java 开发的企业级 OpenFlow 控制器.我们在下面的例子中演示如何安装 Floodlight,并连接管理 OVS 的过程.
Floodlight 的安装过程异常简单,在另外一台机器上, 下载 Floodlight 源码并编译
1
2
3
4
|
$ git clone git://github.com/floodlight/floodlight.git $ cd floodlight/ $ ant $ java -jar target/floodlight.jar |
运行 Floodlight
1
|
$ java -jar floodlight.jar |
在安装了 OVS 交换机的节点上,配置 OVS 交换机 ovs-switch,使用 Floodlight 作为控制器.默认情况下,Floodlight 在端口 6633 上进行监听,我们使用 ovs-vsctl 命令配置 OVS 交换机使用 TCP 协议连接到 Floodlight(IP 地址为 9.181.137.182,端标语 6633).对于一个 OVS 交换机来说,可以同时配置一个或者多个控制器
$ ovs-vsctl set-controller ovs-switch tcp:9.181.137.182:6633
当 OVS 交换机连接到 Floodlight 控制器后,理论上所有的流表规则应该交给控制器来建立.由于 OVS 交换机和控制器之间是通过网络通讯来传递数据的,所以网络连接失败会影响到 Flow 的建立.针对这种情况,OVS 提供了两种处置模式:
设置 OVS 的连接模式为 secure 模式
1
|
$ ovs-vsctl set Bridge ovs-switch fail-mode=secure |
查看 OVS 的状态,“is_connected:true”代表 OVS 已经胜利连接到了 Floodlight
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
$ ovs-vsctl show 30282710-d401-4187-8e13-52388f693df7 Bridge ovs-switch
Controller "tcp:9.181.137.182:6633"
is_connected: true
Port ovs-switch
Interface ovs-switch
type: internal
Port "p0"
Interface "p0"
type: internal
Port "p1"
tag: 101
Interface "p1"
type: internal
Port "p2"
Interface "p2"
type: internal
|
通过拜访 Floodlight 提供的 Web 管理界面 http://<Host Address>:8080/ui/index.html,我们可以查看 Floodlight 控制器的状态以及所有连接到 Floodlight 的交换机列表
选中某个 OpenFlow 交换机, 查看此中的端口列表和流表信息
点击查看年夜图
通过 Floodlight 的 RESTAPI,添加两条新的规矩让端口 p0 和 p1 可以相互通讯.注意:替换命令行中的 switch 的 ID 为交换机的 datapath ID
1
2
3
4
5
6
7
|
curl -d '{"switch": "00:00:0e:f9:05:6b:7c:44", "name":"my-flow1", "cookie":"0","priority":"32768", "ingress-port":"100","active":"true", "actions":"output=flood"}' http://9.181.137.182:8080/wm/staticflowentrypusher/json curl -d '{"switch": "00:00:0e:f9:05:6b:7c:44", "name":"my-flow2", "cookie":"0","priority":"32768", "ingress-port":"101","active":"true", "actions":"output=flood"}' http://9.181.137.182:8080/wm/staticflowentrypusher/json |
验证是否能从端口 p0 发送数据包到 p1
1
2
3
4
5
6
7
8
9
10
|
$ ip netns exec ns0 ping -c4 192.168.1.101 PING 192.168.1.101 (192.168.1.101) 56(84) bytes of data. 64 bytes from 192.168.1.101: icmp_req=1 ttl=64 time=0.027 ms 64 bytes from 192.168.1.101: icmp_req=2 ttl=64 time=0.018 ms 64 bytes from 192.168.1.101: icmp_req=3 ttl=64 time=0.023 ms 64 bytes from 192.168.1.101: icmp_req=4 ttl=64 time=0.022 ms --- 192.168.1.101 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 2998ms rtt min/avg/max/mdev = 0.018/0.022/0.027/0.005 ms |
在 OVS 端也可以看到,流表规则已经被 OVS 同步到当地.
1
2
3
4
5
6
|
$ ovs-ofctl dump-flows ovs-switch NXST_FLOW reply (xid=0x4): cookie=0xa0000000000000, duration=335.122s, table=0, n_packets=347, n_bytes=28070,
idle_age=1, in_port=100 actions=FLOOD
cookie=0xa0000000000000, duration=239.892s, table=0, n_packets=252, n_bytes=24080,
idle_age=0, in_port=101 actions=FLOOD
|
通过 Floodlight 的 RestAPI,查看交换机上的流表规矩
1
|
curl http://9.181.137.182:8080/wm/staticflowentrypusher/list/00:00:0e:f9:05:6b:7c:44/json |
通过 Floodlight 的 RestAPI,删除交换机上的流表规矩
1
|
curl http://9.181.137.182:8080/wm/staticflowentrypusher/clear/00:00:0e:f9:05:6b:7c:44/json |
通过本文的讲述和实验,我们了解了 Open vSwitch 以及 OpenFlow 的基本概念,以及通过 OpenFlow 协议改动 Open vSwitch 中的流表项,最后演示了如何使用 Floodlight 连接 Open vSwitch 并进行管理.
本文永远更新链接地址:
《LINUX教程:基于 Open vSwitch 的 OpenFlow 实践》是否对您有启发,欢迎查看更多与《LINUX教程:基于 Open vSwitch 的 OpenFlow 实践》相关教程,学精学透。维易PHP学院为您提供精彩教程。