python协程,多协程,多进程,多线程,多进程调用协程的例子

1.笨栗子就是对多进程中调用协程,
pool.apply_async(asyncio.get_event_loop().run_until_complete(Url().save_url_to_redis()), (i,))
以及多进程和协程之间的关系:

  • pool.apply_async(asyncio.get_event_loop().run_until_complete(Url().save_url_to_redis()), (i,)) # 多进程调用协程 ,将协程函数重复执行三次,
  • 在这里的话就将 url_count=20000 重复执行存入redis 3次,最后就导致总共存入的条数就是 url_count=20000 的进程倍数
  • 总结: 多进程不要将要存入或者写入的数据放在函数里面,要结合redis 做队列来分发任务,不然任务就重复了
    # 协程: 也是一样的,要将参数放在redis,rpop弹出一个参数给一个协程或者进程去消费
# -*- coding: utf-8 -*-
"""
 @Time   : 2020/6/30 15:54 
 @Athor   : LinXiao
 @功能   :
"""
# ------------------------------
import asyncio
import multiprocessing
import threading
import time
import timeit
from pprint import pprint

import aioredis
from loguru import logger
from redis import Redis


class Url():
    def __int__(self):
        self.do_conuts=20
        # self.session_counts=2
        # self.url_count=25

    async def redis_connect(self):
        self.host="127.0.0.1"
        self.port="6379"
        # self.password = "",
        self.db=6
        try:
            self.redis=await aioredis.create_redis_pool(
                (self.host,
                 self.port),
                # password=self.password,
                db=self.db
            )
            logger.info(f"redis connection successfully")
            return True

        except Exception as e:
            logger.error(f"redis connection error: {e.args}")
            raise e

    async def close(self):

        self.redis.close()
        await self.redis.wait_closed()

    async def save_url_to_redis_single(self):  # 单协程
        stop_flag=False
        await self.redis_connect()
        url_count=63
        while True:
            for i in range(1, url_count + 1):
                url=f"https://explorer-web.api.btc.com/v1/eth/txns/0?page={i}&size=150"
                await self.redis.lpush("redis_connect_urls", url)
                logger.info(f'push {i} to redis')
                if i == url_count:
                    await self.close()
                    # break
            await self.close()
            break

    async def save_url_to_redis_multi(self, n):  # 多协程
        stop_flag=False
        await self.redis_connect()
        url_count=6300
        while True:
            for i in range(1, url_count + 1):
                url=f"https://explorer-web.api.btc.com/v1/eth/txns/0?page={i}&size=150"
                await self.redis.lpush("redis_connect_urls", url)
                logger.info(f'push {i} to redis')
                logger.info(f"task No.{n} 第{i}页 to redis")

                if i == url_count:
                    # await self.close()
                    break
            # await self.close()
            break

    async def multiasyico_test(self, n):
        for i in range(3):
            pprint(i)
        print(
            "-----------------------------------------------------------------------------------------------------------")

    async def start(self):
        await self.redis_connect()
        asy_count=5  # 协程数
        tasks=[self.save_url_to_redis_multi(n + 1) for n in range(asy_count)]
        await asyncio.gather(*tasks)
        await self.close()

    def main(self):
        loop=asyncio.get_event_loop()
        loop.run_until_complete(self.start())  # 多协程
        # loop.run_until_complete(self.save_url_to_redis())
        # loop.close()


def save_url_to_redis_2():
    redis=Redis(db=9)
    url_count=63
    # while True:
    for i in range(1, url_count + 1):
        url=f"https://explorer-web.api.btc.com/v1/eth/txns/0?page={i}&size=150"
        redis.lpush("redis_connect_urls", url)
        logger.info(f'push {i} to redis')
        # logger.info(f"task No.{} 第{i}页 to redis")

        # if i == url_count:
        #     break
        # break


def multiPro_test():
    # for i in range(10):
    # pprint(i)
    print("-----------------------------------------------------------------------------------------------------------")


if __name__ == '__main__':

    # 在这里的话就将 url_count=20000 重复执行存入redis 3次,最后就导致总共存入的条数就是 url_count=20000 的进程倍数
    # 总结: 多进程不要将要存入或者写入的数据放在函数里面,要结合redis 做队列来分发任务,不然任务就重复了
    # 协程: 也是一样的,要将参数放在redis,rpop弹出一个参数给一个协程或者进程去消费

    start=timeit.default_timer()

    # 多线程
    # if __name__ == '__main__':
    #     login()
    try:
        i=0
        # 开启线程数目
        tasks_number=10  # 这里将一个函数重复执行三次
        print('测试启动')
        while i < tasks_number:
            print(f"tasks_number  is {i}")
            t=threading.Thread(target=multiPro_test)
            t.start()
            i+=1
        # time2=time.clock()
        # times=time2 - time1

    except Exception as e:
        print(e)

    # 单协程
    # loop = asyncio.get_event_loop()
    # loop.run_until_complete(Url().save_url_to_redis_single())
    # loop.close()

    # 多协程
    # Url().main()       # 3.6690529

    # 多进程
    # process_count=3
    # pool=multiprocessing.Pool(process_count)
    # for i in range(process_count):
    #     # pool.apply_async(asyncio.get_event_loop().run_until_complete(Url().save_url_to_redis()), (i,))  # 多进程调用协程 ,将协程函数重复执行三次,
    #     pool.apply_async(multiPro_test(), (i,))  # 多进程调用普通函数
    # pool.close()
    # pool.join()

    # 多协程 和 多进程 写入 redis的时候 会将数据按照协程数和进程数加倍写入!!!!

    # 多进程中调用多协程:  ! 还有问题!
    # process_count=3
    # eth = Url().main()
    # pool=multiprocessing.Pool(process_count)
    # for i in range(process_count):
    #     pool.apply_async(asyncio.get_event_loop().run_until_complete(eth), (i,)) # 多进程调用协程 ,将协程函数重复执行三次,
    # pool.close()
    # pool.join()

    # end=timeit.default_timer()
    # print('Running time: %s Seconds' % (end - start))


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容