我去年写了个缓存
在 base/utils
里面我写了一个类,叫CacheMeBaby
。这是一个简单的非侵入式的缓存管理,所谓非侵入式就是他就是一个简单的库,不需要继承某个类才能使用(例如Python的Thread类需要集成Thread才能用Run),它的存在不会影响到原来的代码。
它使用方法类似于CacheModelBase
的get_with_id/get_without_id(都是只返回一个结果),但是ModelBase和CacheModelBase的对象都可以使用。实例代码如下:
mc_advert = CacheMeBaby(OfferWallAdvert) # 参数是一个modelbase/cachemodelbase的类
data = mc_advert.find_one({'app_main_type': {'$gt': 1})
data['app_name'] = 'helloworld'
mc_advert.save(data) # 使用CacheMeBaby的Save重置缓存的数据
更多的实例可以参考 apps/outlet_layer/module/api/offer_wall_api_v2.py
最下面的一些测试例子。在config.ini 里面可以开启测试
下面是一些API的说明:
CacheMeBaby(class):构造一个CacheMeBaby的对象,参数是一个modelbase/cachemodelbase,注意,返回的是cachemebaby的对象而不是modelbase的
baby.find_one(_id/dict): 可以传一个object_id,或者一个mongodb的查询条件(dict),返回第一个匹配的结果
baby.save(obj): obj其实就是一个dict,这个dict就是find_one返回的dict,如果有_id就是更新,木有就是插入
remove_cache(_id): 传入一个_id 就可以清缓存了。
remove(obj): 穿入一个find_one返回的对象,删除并清缓存
这货的性能比用beaker实现的cachemodelbase快了将近100倍(memcache在同一服务器的情况下,就算不在同一服务器也快不少)……不信你可以自己跑一下。不过,这个东西不是为了替代cachemodelbase
的存在,而是为了改善它的性能。你可以用他来改写它里面基于Beaker的实现。如果改写以后担心清缓存的问题,可以在ModelBase/CacheModelBase里面修改对象数据的相关函数(save, find_modify)里面加上remove_cache的接口调用。 不过我还没加进去
PS. CacheMeBaby有两级的缓存,一个是缓存数据,一个是缓存Key。Key缓存的部分如果安装了lru-dict(
pip install lru-dict
)会启用LRU机制,会对淘汰一些较少进行查询的条件的缓存,节省内存。
我今年写了个PUBSUB
另外我在业余时间写了一个基于PUBSUB的任务调度服务——labor,基于C++11写成的,服务支持Python和Lua作为脚本。目标是做一个 绿色环保低消耗 的服务,建议放在同一台服务器跑。
低消耗是目标,但是为了支持Python就注定了内存的占用少不了
这个东西主要用来解决的问题就是处理一些额外的任务,让后台不浪费太多的时间在等待这些额外的任务上,例如发个http请求,发个邮件什么的。虽然在多线程也可以实现这种不堵塞的任务调度,但是多线程一不小心就crash了怎么办呢,总不可能让整个后台的进程都crash吧。所以才做了这么一个东西。
labor
是一个单进程单线程的服务(除了日志线程),基于0mq来通讯,所以通信速度非常快。为什么做成单进程单线程呢,首先他又不是后台服务器,我又不需要并发,多线程多进程那叫自讨苦吃;然后他只是处理一些额外的任务调度,又不影响你的后台服务器,一个一个慢慢乖♂乖站♂好不用急。好吧,如果说单个服务很慢影响后面的执行怎么办,也没有怎么办的啊,服务是你写的你写得慢我还管你哟?labor只管调度不管快慢(不过以后可能会考虑加上timeout机制
作为客户端,你需要先安装pyzmq,然后就可以开始了。使用labor很简单。
from labor import Labor
lb = Labor('*:1808', Labor.TYPE_PUBSUB)
lb.use('__echo', what='zsy') # 打印echo
lb.use('__counter') # 调用计数服务
lb.use('__httprequest', url='http://www.baidu.com') # 发送GET请求
lb.use('your_service_name', your_arg_name=your_arg_val)
use
就是唯一的api,第一个参数是服务的名称,后面都是 **kw
的参数。托zmq的福,发送速度灰常快,几乎木有等待,但是请不要在单独一个python里面企图测试,因为发的太快可能没发完程序就结束了,除非自己sleep一下。这个客户端需要安装的话在labor源码目录下面的client/py
可以找到
Github 目前还木有放上去(等我写好了英文的README就放了),现在先放在oschina托管,有兴趣可以Pull下来用。。以后会考虑加上更多有用的功能(例如, 支持多节点订阅,IO沙盒,命令行工具,更好的内存管理(LRU support and better GC),JIT支持,热更新等)。至于怎样编译看README就好了。