㈠ 怎样基于python networkx实现社区发现
k_clique_communities的input是G,networkx的graph的数据结构。 所以原链接的test.txt文件应该是包涵一个graph的文件。
networkx可以读取的graph文件种类如链接所示。Reading and writing graphs
常见的类型有edgelist (usually stored as a text file)和GML。如果我们用Network data 的dolphins social network (which is stored as a GML file)做例子的话,运行如下的code:
import networkx as nx import matplotlib.pyplot as plt G = nx.read_gml('dolphins.gml')klist = list(nx.k_clique_communities(G,3)) #list of k-cliques in the network. each element contains the nodes that consist the clique.#plottingpos = nx.spring_layout(G)plt.clf()nx.draw(G,pos = pos, with_labels=False)nx.draw(G,pos = pos, nodelist = klist[0], node_color = 'b')nx.draw(G,pos = pos, nodelist = klist[1], node_color = 'y')plt.show()
我们的到如下结果:
<img src="https://pic3.mg.com/50/v2-_hd.png" data-rawwidth="800" data-rawheight="600" class="origin_image zh-lightbox-thumb" width="800" data-original="https://pic3.mg.com/v2-_r.png">
which gives us four clique communities.
㈡ python画网络图的问题
可以用python的一个包networkx,在这里下载http://pypi.python.org/pypi/networkx/#downloads
安装后,在python shell 里可以编写如下代码:
import networkx as nx
G=nx.Graph()
G.add_node("spam")
G.add_edge(1,2)
print(G.nodes())[1, 2, 'spam']
print(G.edges())[(1, 2)]
然后按F5执行,即可看到上面的图。
㈢ Hopfield神经网络用python实现讲解
神经网络结构具有以下三个特点:
神经元之间全连接,并且为单层神经网络。
每个神经元既是输入又是输出,导致得到的权重矩阵相对称,故可节约计算量。
在输入的激励下,其输出会产生不断的状态变化,这个反馈过程会一直反复进行。假如Hopfield神经网络是一个收敛的稳定网络,则这个反馈与迭代的计算过程所产生的变化越来越小,一旦达到了稳定的平衡状态,Hopfield网络就会输出一个稳定的恒值。
Hopfield网络可以储存一组平衡点,使得当给定网络一组初始状态时,网络通过自行运行而最终收敛于这个设计的平衡点上。当然,根据热力学上,平衡状态分为stable state和metastable state, 这两种状态在网络的收敛过程中都是非常可能的。
为递归型网络,t时刻的状态与t-1时刻的输出状态有关。之后的神经元更新过程也采用的是异步更新法(Asynchronous)。
Hopfield神经网络用python实现
㈣ python画网络图
用PIL可以划出来。。这个好划,
假设是400*200的图。。,我划一下。稍后给你代码
㈤ 怎么用python写mininet的拓扑
为Mininet添加自定义拓扑:Mininet原生提供了多种拓扑类型:SingleSwitchTopo:简单拓扑(Host——Switch——Host)LinearTopo(k,n):链状拓扑,k台交换机以单链形态连接,分别下接n台主机TreeTopo(depth,fanout):树形拓扑,创建一个深度为depth、扇出为fanout的树状拓扑Mininet默认情况下并没有实现胖树的网络拓扑,但Mininet支持添加自定义拓扑的功能。本文根据Mininet自带的拓扑定义,在原拓扑库中添加了胖树拓扑类,实现从命令行直接启动k叉胖树拓扑环境。(注:加粗的代码行为自定义拓扑关键部分)mininet/topo.py:所有的拓扑类都继承自topo模块下的Topo基类,Topo基类实现了addNode、addSwitch、addHost、addPort、addLink等添加节点、链路的重要方法。Topo模块中还实现了单交换机拓扑SingleSwitchTopo类和链状拓扑LinearTopo类。mininet/topolib.py:topolib模块中定义了树状拓扑TreeTopo类,自定义的拓扑类可以定义在topolib模块下也可定义在topo模块下,拓扑类的__init__方法中可添加构建拓扑所需要的参数,Mininet在调用拓扑类时会将从命令行接收的topo选项之后的参数*args和关键字参数**kwargs传递到该拓扑类的__init__方法中初始化该拓扑类的对象。如本文中定义的FatTree拓扑类需要接收参数k以确定胖树的叉数:classFatTreeTopo(Topo):def__init__(self,k=4):"Createfat-treetopo."#initializationcodebin/mn:mn是Mininet执行的解释器,负责解析参数,定义了MininetRunner类用来构建、配置并运行整个Mininet平台。自定义的拓扑类需要导入mn中,然后在存放拓扑参数的字典TOPOS中加入对应的键值,就可以在mn命令中使用自定义的拓扑了:frommininet.topolibimportFatTreeTopoTOPOS={'linear':LinearTopo,'single':SingleSwitchTopo,'tree':TreeTopo,'fattree':FatTreeTopo}启动8叉胖树自定义拓扑的Mininet拓扑环境:$sudomn--topo=fattree,k=8
㈥ 现在tensorflow和mxnet很火,是否还有必要学习scikit-learn等框架
很有必要,但不用太深入,在Kaggle上认真搞2,3个比赛能进10%的程度就够了
㈦ 哪些专业会深入学习到python
就我所知的专业需要学习python专业课的有(基本上数据结构学得越深,python就学得越深):软件工程、通信工程、物联网、机器人、信息管理、信息技术、计算机科学……
㈧ BP神经网络——Python简单实现三层神经网络(Numpy)
我们将在Python中创建一个NeuralNetwork类,以训练神经元以给出准确的预测。该课程还将具有其他帮助程序功能。
1. 应用Sigmoid函数
我们将使用 Sigmoid函数 (它绘制一条“ S”形曲线)作为神经网络的激活函数。
2. 训练模型
这是我们将教神经网络做出准确预测的阶段。每个输入将具有权重(正或负)。
这意味着具有大量正权重或大量负权重的输入将对结果输出产生更大的影响。
我们最初是将每个权重分配给一个随机数。
本文参考翻译于此网站 —— 原文
㈨ 各位帮帮忙! 如何用 SNMP 得到 一个在跑OSPF协议的网络拓扑 的信息,如果能透过Python完成 就更好了
snmp-server community cisco RO
snmp-server enable traps ospf state-change
snmp-server enable traps ospf errors
snmp-server enable traps ospf retransmit
snmp-server enable traps ospf lsa
snmp-server enable traps ospf cisco-specific state-change nssa-trans-change
snmp-server enable traps ospf cisco-specific state-change shamlink interface-old
snmp-server enable traps ospf cisco-specific state-change shamlink neighbor
snmp-server enable traps ospf cisco-specific errors
snmp-server enable traps ospf cisco-specific retransmit
snmp-server enable traps ospf cisco-specific lsa
snmp-server host 10.1.1.2 version 2c cisco ospf
建议使用NETFLOW,因为SNMP是简单的管理协议,他采集的只是硬件上的信息。
而NETFLOW是采集流量基于软件图形分析的信息,他能够采集到路由的源目IP,工作方式,类型,以及产生的流量,可是他是基于接口的采集。
㈩ 《Python神经网络》2——神经元
虽然计算机拥有相对大量的电子计算元件、巨大的存储空间,并且这些计算机的运行频率比肉蓬蓬、软绵绵的生物大脑要快得多,但是即使是像鸽子一样小的大脑,其能力也远远大于这些电子计算机。
传统的计算机按照严格的串行顺序,相当准确具体地处理数据。对于这些冰冷坚硬的计算机而言,不存在模糊性和不确定性。而另一方面,动物的大脑表面上看起来以慢得多的节奏运行,却似乎以并行方式处理信号,模糊性是其计算的一种特征。
虽然神经元有各种形式,但是所有的神经元都是将电信号从一端传输到另一端,沿着轴突,将电信号从树突传到树突。然后,这些信号从 一个神经元传递到另一个神经元。
我们需要多少神经元才能执行相对复杂的有趣任务呢?
一般来说,能力非常强的人类大脑有大约1000亿个神经元!一只果蝇有约10万个神经元,能够飞翔、觅食、躲避危险、寻找食物以及执行许多相当复杂的任务。 10万个神经元,这个数字恰好落在了现代计算机试图复制的范围内。 一只线虫仅仅具有302个神经元,与今天的数字计算资源相比,简直就是微乎其微!但是一直线虫能够完成一些相当有用的任务,而这些任务对于尺寸大得多的传统计算机程序而言却难以完成。
激活函数:
阶跃函数,S函数。