最近在学习Nick Feamster教授的SDN公开课,这篇文章就是关于其中的一个assignment,使用mininet中的python API搭建一个简单的数据中心拓扑。详情请访问这里。
0x00 介绍
数据中心网络的拓扑大多是采用树形分层结构,一般包括边缘层(edge layer)、汇聚层(aggregation layer)和核心层(core layer),如上图所示。一般有一个或多个交换机作为根节点,往下一般有单层或多层交换机作为整个树的中部,在树的底部,每个交换机与多个主机相连。这种简单的树形结构存在很多问题,比如高层节点的宕机会导致下面一连串节点都无法联通,现在也有很多研究对以上结构进行改进,但这不是本文讨论的范围,本文主要使用mininet对上图进行模拟,实现主机间的连通。
0x01 代码实现
全部代码可以从我的github上找到。
创建CustomTopo类如下:
class CustomTopo(Topo):
"Simple Data Center Topology"
"linkopts - (1:core, 2:aggregation, 3: edge) parameters"
"fanout - number of child switch per parent switch"
def __init__(self, linkopts1, linkopts2, linkopts3, fanout=2, **opts):
# Initialize topology and default options
Topo.__init__(self, **opts)
self.fonout = fanout
# Add core switch
cs_switch = self.addSwitch('cs%s' % 1)
# Add aggregation switches
for i in irange(1, fanout):
as_switch = self.addSwitch('as%s' % i)
self.addLink(as_switch, cs_switch, **linkopts1)
as_parent_switch = as_switch
# Add edge switches
for j in irange(1, fanout):
es_num = i * fanout - 2 + j
es_switch = self.addSwitch('es%s' % es_num, **linkopts2)
self.addLink(es_switch, as_parent_switch)
es_parent_switch = es_switch
# Add hosts
for k in irange(1, fanout):
host_num = es_num * fanout - 2 + k
host = self.addHost('h%s' % host_num, cpu=.5/fanout)
self.addLink(host, es_parent_switch, **linkopts3)
代码很简单,主要是三层循环分别创建switch和host对象,并从上到下连起来,其中主要的一些类和函数的说明如下:
- Topo:Mininet拓扑的基础类,想要自定义拓扑一般都要以这个类为基础
- addSwitch():以switch的名字为参数,返回switch对象,注意名字中必须包含编号,否则会报错
- addHost():以host的名字为参数,返回host对象
- addLink():在两个节点之间增加双向链路,无论是交换机之间还是交换机和主机之间都是用这个方法
- linkopts:这是一个字典,用来设置一些链路的可选参数,比如带宽,延迟等等
- fanout:表示每个交换机下的子节点个数,通过改变这个参数来改变树的规模
拓扑创建好了,下面可以使用pingAll()方法及iperf()方法对刚才的拓扑进行连通性及性能测试,测试代码如下:
def perTest():
"Specify performance parameters for the links"
# Between core and aggregation switches
linkopts1 = dict(bw=10, delay='5ms', loss=1, max_queue_size=1000, use_htb=True)
# Between aggregation and edge switches
linkopts2 = dict(bw=10, delay='5ms', loss=1, max_queue_size=1000, use_htb=True)
# Between edge switches and hosts
linkopts3 = dict(bw=10, delay='5ms', loss=1, max_queue_size=1000, use_htb=True)
"Create and test a simple network"
topo = CustomTopo(linkopts1=linkopts1, linkopts2=linkopts2, linkopts3=linkopts3, fanout=2)
net = Mininet(topo=topo, host=CPULimitedHost, link=TCLink)
net.start()
print "Dumping host connections"
dumpNodeConnections(net.hosts)
print "Testing network connectivity"
net.pingAll()
print "Testing bandwidth between h1 with h2, h3, h5 and h7"
h1, h2 = net.get('h1', 'h2')
net.iperf( ( h1, h2 ) )
h1, h3 = net.get('h1', 'h3')
net.iperf( ( h1, h3 ) )
h1, h5 = net.get('h1', 'h5')
net.iperf( ( h1, h5 ) )
h1, h7 = net.get('h1', 'h7')
net.iperf( ( h1, h7 ) )
net.stop()
以上主要进行了连通性及链路性能的测试,其中主要的类和方法的说明如下:
- Mininet:mininet的类,在实例化时指定所使用的too及host和link的类型,这里采用CPULimitedHost来限制主机的性能,TCLink来设置链路的一些额外属性
linkopts1 = dict(bw=10, delay='5ms', loss=1, max_queue_size=1000, use_htb=True):有关链路的一些参数,bw代表带宽,单位是Mb/s;delay代表延迟,用0-100的数字表示一个百分比;max_queue_size代表队列中
最多可容纳的packet数量;use_htb代表使用htb
算法,htb表示Hierarchical Token Bucket,中文不知道该怎么翻译,大概就是一种流量控制算法 - pingAll():使用ping测试所有节点之间的连通性
- dumpNodeConnections():列出所有主机的连通
- net.get():通过节点名字得到节点的对象
- net.iperf():在两个主机之间使用iperf,用来测试网络性能
0x02 测试结果
ping的连通性测试:
pingAll()命令对每个主机两两之间的连通性进行了测试,由上图可以看出打叉的地方存在丢包,这种结果是随机的,通过调节链路的配置可以改变丢包率。
iperf的网络性能测试:
上图的4个结果中h1和h2之间表示同一交换机下不同的主机,h1和h3表示同一汇聚层下不同交换机下的主机,h1和h5表示同一核心层下不同主机,从结果中可以看出两个主机之间的“距离”对传输速率有很大影响。
0x03总结
本文主要对SDN的其中一个比较重要的应用场景——数据中心网络进行一个简单的拓扑实验。Mininet为我们研究SDN提供了一个很好的平台,其提供的python API使得我们可以很容易的实现自己的想法,并且验证自己的想法。这篇文章只是个开端,以后还会继续写几篇有关SDN的实践文章。