龙卷风网络和线程
我是Tornado和Python线程的新手。 我想达到的是以下内容:我有一个Tornado Web服务器,它接受来自用户的请求。 我想在本地存储一些数据,并将其定期写入数据库作为批量插入。
import tornado.ioloop
import tornado.web
import threading
# Keep userData locally in memory
UserData = {}
def background(f):
"""
a threading decorator
use @background above the function you want to thread
(run in the background)
"""
def bg_f(*a, **kw):
threading.Thread(target=f, args=a, kwargs=kw).start()
return bg_f
@background
def PostRecentDataToDBThread(iter = -1):
i = 0
while iter == -1 or i < iter:
#send data to DB
UserData = {}
time.sleep(5*60)
i = i + 1
class AddHandler(tornado.web.RequestHandler):
def post(self):
userID = self.get_argument('ui')
Data = self.get_argument('data')
UserData[userID] = Data
if __name__ == "__main__":
tornado.options.parse_command_line()
print("start PostRecentDataToDBThread")
### Here we start a thread that periodically sends data to the data base.
### The thread is called every 5min.
PostRecentDataToDBThread(-1)
print("Started tornado on port: %d" % options.port)
application = tornado.web.Application([
(r"/", MainHandler),
(r"/add", AddHandler)
])
application.listen(options.port)
tornado.ioloop.IOLoop.instance().start()
这是实现我的目标的好方法吗? 我想尽量减少服务器阻塞时间。 或者我应该使用gevent还是其他什么? 我是否可以通过从Tornado和线程访问UserData来遇到问题? 只要没有服务器崩溃,数据一致性在这里并不重要。
龙卷风不打算与多线程一起使用。 它基于epoll在代码的不同部分之间切换上下文。
一般来说,我建议通过消息队列将数据发送给单独的工作进程(比如pika + RabbitMQ,它与Tornado很好地集成在一起)。 工作进程可以累积带有数据的消息并批量写入数据库,或者可以使用此设置实现任何其他数据处理逻辑。
或者,您可以使用例如Redis with brukva将传入数据异步写入内存数据库,然后依据Redis配置将其异步转储到磁盘。
链接地址: http://www.djcxy.com/p/52495.html下一篇: Node.js + Nginx