您的位置:时时app平台注册网站 > 编程知识 > kmeans算法并行化的mpi程序时时app平台注册网站

kmeans算法并行化的mpi程序时时app平台注册网站

2019-10-30 04:38

  分析:计算机配置是奔腾双核,依据该并行程序,叁当中央用作主节点以分配数据集,另贰个主导作为担当了大多数划算职分的节点。当数据量较时辰,并行程序花在进程间数据通讯的日子占了整机时间的非常的大比重,所以并行程序耗费时间要多于串行程序。在本ComputerCPU为五个为主的条件下,当数据量异常的大时,并行程序与串行程序耗费时间极其也许稍稍偏小。在CPU核心数在3个以上时,该并行程序的优势才显露出来。

python接收 多进度/十六线程/协程 写爬虫以致品质相比较,牛逼的分分钟就将二个网站爬下来!,python爬虫

 

先是大家来明白下python中的进度,线程以致协程!

从计算机硬件角度:

Computer的着力是CPU,担任了装有的忖度任务。
三个CPU,在叁个时刻切条里只可以运营多少个顺序。

 

从操作系统的角度:

进度和线程,都未来生可畏种CPU的实施单元。

进度:表示二个主次的上下文实践活动(展开、推行、保存...)

线程:进度实践顺序时候的矮小调解单位(实施a,实施b...)

三个主次至少有多个进度,一个进程至稀有三个线程。

 

并行 和 并发:

互动:八个CPU主旨,差别的主次就分配给差别的CPU来运作。能够让几个程序同一时候进行。

cpu1 -------------
cpu2 -------------
cpu3 -------------
cpu4 -------------

现身:单个CPU主题,在三个光阴切成条里一遍只好运营叁个主次,如若须求周转多少个程序,则串行推行。

cpu1  ----  ----

cpu1    ----  ----

 

多进程/多线程:
代表可以况兼实践七个职责,进程和线程的调节是由操作系统自动实现。

经过:各类进度都有自身单独的内部存款和储蓄器空间,差异进度之间的内部存储器空间不分享。
进度之间的通讯有操作系统传递,导致通信功效低,切换成本大。

线程:多少个经过能够有四个线程,全部线程分享进度的内部存款和储蓄器空间,通信功用高,切换开支小。

分享意味着逐鹿,导致数据不安全,为了维护内部存款和储蓄器空间的数目安全,引入"互斥锁"。

一个线程在做客内部存款和储蓄器空间的时候,别的线程不容许访问,必需等待在此之前的线程访问结束,技能选拔那个内部存款和储蓄器空间。

互斥锁:生机勃勃种安全有序的让多少个线程访谈内部存款和储蓄器空间的建制。

 

Python的十二线程:

GIL 全局解释器锁:线程的举办权限,在Python的经过里唯有二个GIL。

一个线程必要实行职责,必得取得GIL。

好处:直接杜绝了三个线程访问内部存款和储蓄器空间的平安难题。
弊病:Python的四十五线程不是真正多线程,不能够充裕利用多核CPU的能源。

不过,在I/O阻塞的时候,解释器会放出GIL。

所以:

多进程:密集CPU职务,供给足够应用多核CPU能源(服务器,一大波的并行总计)的时候,用多进度。 multiprocessing
缺陷:多少个进度之间通讯花费高,切换开支大。

二十四线程:密集I/O职务(网络I/O,磁盘I/O,数据库I/O)使用八线程合适。
threading.Thread、multiprocessing.dummy
瑕玷:同一个日子切成片只好运转一个线程,不能够到位高并行,但是足以实现高并发。

协程:又称微线程,在单线程上实行多少个职分,用函数切换,费用超小。不经过操作系统调治,未有经过、线程的切换开支。genvent,monkey.patchall

多线程央求重返是九冬的,那些线程有多少再次来到就管理极其线程,而协程再次来到的数额是不改变的。

短处:单线程推行,处理密集CPU和本地球磁性盘IO的时候,品质好低。管理互连网I/O品质如故比较高.

 

下边以那些网址为例,选取三种艺术爬取。爬取前250名的影视。。

 通过解析网页开采第2页的url start=25,第3页的url start=50,第3页的start=75。由此能够得出这一个网址每豆蔻梢头页的数局是经过递增start那几个参数获取的。

貌似不看率先页的数额,第生龙活虎页的从未有过参照他事他说加以考查价值。

时时app平台注册网站 1

 

此番大家第风流倜傥爬取,电影名字跟评分。只是选用不相同方式去对待下分裂点,所以数据方面就只是多领取恐怕封存。只是简短的将其爬取下打印出来看看。

率先:选取多进度 , multiprocessing 模块。 当然这几个耗费时间更网络好坏有关。在任何要央求都例行的事态下耗费时间15s多。

 

时时app平台注册网站 2

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from multiprocessing import Process, Queue

import time
from lxml import etree
import requests


class DouBanSpider(Process):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                return requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存进程
    Process_list = []
    # 创建并启动进程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Process_list.append(p)

    # 让主进程等待子进程执行完成
    for i in Process_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

Process多进度完结

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from multiprocessing import Process, Queue

import time
from lxml import etree
import requests


class DouBanSpider(Process):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                return requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存进程
    Process_list = []
    # 创建并启动进程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Process_list.append(p)

    # 让主进程等待子进程执行完成
    for i in Process_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

  

时时app平台注册网站 3

 

 

 

  采纳二十四线程时,耗费时间10.4s

 

时时app平台注册网站 4

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from threading import Thread
from Queue import Queue
import time
from lxml import etree
import requests


class DouBanSpider(Thread):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存线程
    Thread_list = []
    # 创建并启动线程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Thread_list.append(p)

    # 让主线程等待子线程执行完成
    for i in Thread_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

thread

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from threading import Thread
from Queue import Queue
import time
from lxml import etree
import requests


class DouBanSpider(Thread):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存线程
    Thread_list = []
    # 创建并启动线程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Thread_list.append(p)

    # 让主线程等待子线程执行完成
    for i in Thread_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

  

 时时app平台注册网站 5

 

 

接受协程爬取,耗费时间15S,

时时app平台注册网站 6

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from Queue import Queue
import time
from lxml import etree
import requests
import gevent

# 打上猴子补丁
from gevent import monkey
monkey.patch_all()

class DouBanSpider(object):
    def __init__(self):
        # 创建一个队列用来保存进程获取到的数据
        self.q = Queue()
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self,url):
        self.parse_page(url)

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self,url):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


    def main(self):


        base_url = 'https://movie.douban.com/top250?start='
        # 构造所有url
        url_list = [base_url str(num) for num in range(0,225 1,25)]
        # 创建协程并执行
        job_list = [gevent.spawn(self.run,url) for url in url_list]
        # 让线程等待所有任务完成,再继续执行。
        gevent.joinall(job_list)

        while not self.q.empty():
            print self.q.get()

if __name__=="__main__":
    start = time.time()
    douban = DouBanSpider()
    douban.main()
    print '[info]耗时:%s'%(time.time()-start)

gevent

 

 时时app平台注册网站 7

 

 

用了多进度,七十一线程,协程,达成的代码都无差异,没有测量试验出鲜明的非常好!都不分上下,也许跟网络,或然服务器配置有关。

但理论上来讲线程,协程在I/O密集的操作品质是要当先进度的。

 

也说不定是自家的方法失常,还望大神们请教!

 

多进程/七十多线程/协程 写爬虫以至品质比较,牛逼的分分钟就将贰个网址爬下来!,python爬虫 首先大家来询问下python中的进度,线程...

  

数据量N

10000

100000

500000

串行

1

21

109

并行(2个进程)

2

25

101

并行(3个进程)

3

26

101

  实验:

 1 //生成测试数据
 2 #include<stdio.h>
 3 #include<stdlib.h>
 4 #include<time.h>
 5 #define N 1000
 6 
 7 int main()
 8 {
 9     int i;
10     float a;
11     int k,d,n;
12     FILE *fp;
13     fprintf(stdout,"input(k d n):");
14     scanf("%d%d%d",&k,&d,&n);
15     if((fp=fopen("data.txt","w"))==NULL)    exit(1);
16     fprintf(fp,"K=%d,D=%d,N=%dn",k,d,n);
17     srand((unsigned int)(time(NULL)));
18     for(i=1;i<=d*n;i  ){
19         a=(int)(1.0 (double)N*rand()/(RAND_MAX 1.0));
20         fprintf(fp,"%.2f ",a);
21         if(i%d==0) putc('n',fp);
22     }
23     if(fclose(fp)) exit(2);
24 }

  聚类数K=10,数据的维度D=2,单位(秒):

 

  1 #include <stdio.h>
  2 #include <stdlib.h>
  3 #include <math.h>
  4 #include <time.h>
  5 #include "mpi.h"
  6 
  7 int  main(int argc,char *argv[])
  8 {
  9     int i,j;
 10     MPI_Status status;
 11     float temp1,temp2;
 12     int K,N,D;  //聚类的数目,数据量,数据的维数
 13     float **data;  //存放数据
 14     int *all_in_cluster;  //进程0标记每个点属于哪个聚类
 15     int *local_in_cluster;  //其他进程标记每个点属于哪个聚类
 16     int *in_cluster;  //进程0标记每个点属于哪个聚类
 17     int count=0;
 18     float *sum_diff;
 19     float *global_sum_diff;
 20     float **cluster_center;  //存放每个聚类的中心点
 21     int rank,size;
 22     float **array(int m,int n);
 23     float **loadData(int *k,int *d,int *n);
 24     float getDistance(float avector[],float bvector[],int n);
 25     void cluster(int n,int k,int d,float **data,float **cluster_center,int *local_in_cluster);
 26     float getDifference(int k,int n,int d,int *in_cluster,float **data,float **cluster_center,float *sum);
 27     void getCenter(int k,int d,int n,int *in_cluster,float **data,float **cluster_center);
 28 
 29     MPI_Init(&argc,&argv);
 30     MPI_Comm_rank(MPI_COMM_WORLD,&rank);
 31     MPI_Comm_size(MPI_COMM_WORLD,&size);
 32     if(!rank){
 33         data=loadData(&K,&D,&N);  //进程0读入数据
 34         if(size==1||size>N||N%(size-1))    MPI_Abort(MPI_COMM_WORLD,1);  //若不满足条件则退出
 35     }
 36     MPI_Bcast(&K,1,MPI_INT,0,MPI_COMM_WORLD);  //进程0广播
 37     MPI_Bcast(&N,1,MPI_INT,0,MPI_COMM_WORLD);  
 38     MPI_Bcast(&D,1,MPI_INT,0,MPI_COMM_WORLD);  
 39     if(rank)    data=array(N/(size-1),D);  //其他进程分配存储数据集的空间
 40     all_in_cluster=(int *)malloc(N/(size-1)*size*sizeof(int));  //用于进程0
 41     local_in_cluster=(int *)malloc(N/(size-1)*sizeof(int));  //用于每个进程
 42     in_cluster=(int *)malloc(N*sizeof(int));  //用于进程0
 43     sum_diff=(float *)malloc(K*sizeof(float));  //进程中每个聚类的数据点与其中心点的距离之和
 44     global_sum_diff=(float *)malloc(K*sizeof(float));
 45     for(i=0;i<K;i  )    sum_diff[i]=0.0;  //初始化
 46 
 47     if(!rank){  //进程0向其他进程分配数据集
 48         for(i=0;i<N;i =(N/(size-1)))
 49             for(j=0;j<(N/(size-1));j  )
 50                 MPI_Send(data[i j],D,MPI_FLOAT,(i j)/(N/(size-1)) 1,99,MPI_COMM_WORLD);  
 51         printf("Data sets:n");
 52         for(i=0;i<N;i  )
 53             for(j=0;j<D;j  ){
 54                 printf("%-8.2f",data[i][j]);
 55                 if((j 1)%D==0)    putchar('n');
 56             }
 57            printf("-----------------------------n");
 58     }else{  //其他进程接收进程0数据
 59         for(i=0;i<(N/(size-1));i  )
 60             MPI_Recv(data[i],D,MPI_FLOAT,0,99,MPI_COMM_WORLD,&status);
 61     }
 62     MPI_Barrier(MPI_COMM_WORLD);  //同步一下
 63     cluster_center=array(K,D);  //中心点 
 64     if(!rank){  //进程0产生随机中心点
 65         srand((unsigned int)(time(NULL)));  //随机初始化k个中心点
 66         for(i=0;i<K;i  )
 67             for(j=0;j<D;j  )
 68                 cluster_center[i][j]=data[(int)((double)N*rand()/(RAND_MAX 1.0))][j];
 69     }
 70     for(i=0;i<K;i  )    MPI_Bcast(cluster_center[i],D,MPI_FLOAT,0,MPI_COMM_WORLD);  //进程0向其他进程广播中心点
 71     if(rank){
 72         cluster(N/(size-1),K,D,data,cluster_center,local_in_cluster);  //其他进程进行聚类
 73         getDifference(K,N/(size-1),D,local_in_cluster,data,cluster_center,sum_diff);
 74         for(i=0;i<N/(size-1);i  )
 75             printf("data[%d] in cluster-%dn",(rank-1)*(N/(size-1)) i,local_in_cluster[i] 1);
 76     }
 77     MPI_Gather(local_in_cluster,N/(size-1),MPI_INT,all_in_cluster,N/(size-1),MPI_INT,0,MPI_COMM_WORLD);  //全收集于进程0
 78     MPI_Reduce(sum_diff,global_sum_diff,K,MPI_FLOAT,MPI_SUM,0,MPI_COMM_WORLD);  //归约至进程0,进程中每个聚类的数据点与其中心点的距离之和
 79     if(!rank){  
 80         for(i=N/(size-1);i<N N/(size-1);i  ) 
 81             in_cluster[i-N/(size-1)]=all_in_cluster[i];  //处理收集的标记数组
 82         temp1=0.0;
 83         for(i=0;i<K;i  ) temp1 =global_sum_diff[i];
 84         printf("The difference between data and center is: %.2fnn", temp1);
 85         count  ;
 86     }
 87     MPI_Bcast(&temp1,1,MPI_FLOAT,0,MPI_COMM_WORLD);
 88     MPI_Barrier(MPI_COMM_WORLD);
 89 
 90     do{   //比较前后两次迭代,若不相等继续迭代
 91         temp1=temp2;
 92         if(!rank)    getCenter(K,D,N,in_cluster,data,cluster_center);  //更新中心点
 93         for(i=0;i<K;i  )    MPI_Bcast(cluster_center[i],D,MPI_FLOAT,0,MPI_COMM_WORLD);  //广播中心点    
 94         if(rank){
 95             cluster(N/(size-1),K,D,data,cluster_center,local_in_cluster);  //其他进程进行聚类
 96             for(i=0;i<K;i  )    sum_diff[i]=0.0;
 97             getDifference(K,N/(size-1),D,local_in_cluster,data,cluster_center,sum_diff);
 98             for(i=0;i<N/(size-1);i  )
 99                 printf("data[%d] in cluster-%dn",(rank-1)*(N/(size-1)) i,local_in_cluster[i] 1);
100         }
101         MPI_Gather(local_in_cluster,N/(size-1),MPI_INT,all_in_cluster,N/(size-1),MPI_INT,0,MPI_COMM_WORLD);
102         if(!rank)
103             for(i=0;i<K;i  )    global_sum_diff[i]=0.0;
104         MPI_Reduce(sum_diff,global_sum_diff,K,MPI_FLOAT,MPI_SUM,0,MPI_COMM_WORLD);
105         if(!rank){
106             for(i=N/(size-1);i<N N/(size-1);i  ) 
107                 in_cluster[i-N/(size-1)]=all_in_cluster[i];
108             temp2=0.0;
109             for(i=0;i<K;i  ) temp2 =global_sum_diff[i];
110             printf("The difference between data and center is: %.2fnn", temp2);
111             count  ;
112         }
113         MPI_Bcast(&temp2,1,MPI_FLOAT,0,MPI_COMM_WORLD);
114         MPI_Barrier(MPI_COMM_WORLD);
115     }while(fabs(temp2-temp1)!=0.0);
116     if(!rank)    printf("The total number of cluster is: %dnn",count);
117     MPI_Finalize();
118 }
119 
120 
121 //动态创建二维数组
122 float **array(int m,int n)
123 {
124     int i;
125     float **p;
126     p=(float **)malloc(m*sizeof(float *));
127     p[0]=(float *)malloc(m*n*sizeof(float));
128     for(i=1;i<m;i  )    p[i]=p[i-1] n;
129     return p;
130 }
131 
132 //从data.txt导入数据,要求首行格式:K=聚类数目,D=数据维度,N=数据量
133 float **loadData(int *k,int *d,int *n)
134 {
135     float **array(int m,int n);
136     int i,j;
137     float **arraydata;
138     FILE *fp;
139     if((fp=fopen("data.txt","r"))==NULL)    fprintf(stderr,"cannot open data.txt!n");
140     if(fscanf(fp,"K=%d,D=%d,N=%dn",k,d,n)!=3)    fprintf(stderr,"load error!n");
141     arraydata=array(*n,*d);  //生成数据数组
142     for(i=0;i<*n;i  )
143         for(j=0;j<*d;j  )
144             fscanf(fp,"%f",&arraydata[i][j]);  //读取数据点
145     return arraydata;
146 }
147 
148 //计算欧几里得距离
149 float getDistance(float avector[],float bvector[],int n)
150 {
151     int i;
152     float sum=0.0;
153     for(i=0;i<n;i  )
154         sum =pow(avector[i]-bvector[i],2);
155     return sqrt(sum);
156 }
157 
158 //把N个数据点聚类,标出每个点属于哪个聚类
159 void cluster(int n,int k,int d,float **data,float **cluster_center,int *local_in_cluster)
160 {
161     int i,j;
162     float min;
163     float **distance=array(n,k);  //存放每个数据点到每个中心点的距离
164     for(i=0;i<n;  i){
165         min=9999.0;
166         for(j=0;j<k;  j){
167             distance[i][j] = getDistance(data[i],cluster_center[j],d);
168             if(distance[i][j]<min){
169             min=distance[i][j];
170             local_in_cluster[i]=j;
171         }
172        }
173     }
174     printf("-----------------------------n");
175     free(distance);
176 }
177 
178 //计算所有聚类的中心点与其数据点的距离之和
179 float getDifference(int k,int n,int d,int *in_cluster,float **data,float **cluster_center,float *sum)
180 {
181     int i,j;
182     for(i=0;i<k;  i)
183         for(j=0;j<n;  j)
184             if(i==in_cluster[j])
185                 sum[i] =getDistance(data[j],cluster_center[i],d);
186 }
187 
188 //计算每个聚类的中心点
189 void getCenter(int k,int d,int n,int *in_cluster,float **data,float **cluster_center)
190 {
191     float **sum=array(k,d);  //存放每个聚类中心
192     int i,j,q,count;
193     for(i=0;i<k;i  )
194         for(j=0;j<d;j  )
195             sum[i][j]=0.0;
196     for(i=0;i<k;i  ){
197         count=0;  //统计属于某个聚类内的所有数据点
198         for(j=0;j<n;j  ){
199             if(i==in_cluster[j]){
200                 for(q=0;q<d;q  )
201                     sum[i][q] =data[j][q];  //计算所属聚类的所有数据点的相应维数之和
202                 count  ;
203             }
204         }
205         for(q=0;q<d;q  )
206             cluster_center[i][q]=sum[i][q]/count;
207     }
208     printf("The new center of cluster is:n");
209         for(i = 0; i < k; i  )
210             for(q=0;q<d;q  ){
211                 printf("%-8.2f",cluster_center[i][q]);
212                 if((q 1)%d==0)    putchar('n');
213     }
214     free(sum);
215 }

  3、其余进度总结数据块中各种点到主题点的离开,然后标出种种点所属的聚类,并妄图各种聚类全部一些到个中央点的相距之和,最终将那几个结果回到给进程0;

  

  用c语言写了kmeans算法的串行程序,再用mpi来写并行版的,貌似参照着串行版来写并行版,效果不是很清爽~

 

  使用基本形式。由贰个节点充任主节点担任数据的分开与分配,别的节点实现地点数据的盘算,并将结果重临给主节点。差相当少进度如下:

  1、进度0为主节点,先从文件中读取数据集,然后将数据集划分并传给别的进度;

  

  code:

  5、重复3和4甘休,直到步骤4中的全体聚类的相距之和不改变(即未有)。

 

 

 

  4、进度0总结出新的中坚点并发送给别的进度,并企图别的进度传来的聚类全数一点到个中央点的离开总和;

 

  并行化思路:

 

  2、进度0选用每一个聚类的主干点,并发送给其余进度;

 

本文由时时app平台注册网站发布于编程知识,转载请注明出处:kmeans算法并行化的mpi程序时时app平台注册网站

关键词: