龙卷风网络和线程

我是Tornado和Python线程的新手。 我想达到的是以下内容:我有一个Tornado Web服务器,它接受来自用户的请求。 我想在本地存储一些数据,并将其定期写入数据库作为批量插入。

import tornado.ioloop
import tornado.web
import threading

# Keep userData locally in memory
UserData = {}

def background(f):
    """
    a threading decorator
    use @background above the function you want to thread
    (run in the background)
    """
    def bg_f(*a, **kw):
        threading.Thread(target=f, args=a, kwargs=kw).start()
    return bg_f

@background
def PostRecentDataToDBThread(iter = -1):
    i = 0
    while iter == -1 or i < iter: 
        #send data to DB
        UserData = {}
        time.sleep(5*60)
        i = i + 1

class AddHandler(tornado.web.RequestHandler):
    def post(self):
        userID = self.get_argument('ui')
        Data = self.get_argument('data')

        UserData[userID] = Data 


if __name__ == "__main__":
    tornado.options.parse_command_line()

    print("start PostRecentDataToDBThread")
    ### Here we start a thread that periodically sends data to the data base.
    ### The thread is called every 5min. 
    PostRecentDataToDBThread(-1)

    print("Started tornado on port: %d" % options.port)

    application = tornado.web.Application([
        (r"/", MainHandler),
        (r"/add", AddHandler)
    ])
    application.listen(options.port)
    tornado.ioloop.IOLoop.instance().start()

这是实现我的目标的好方法吗? 我想尽量减少服务器阻塞时间。 或者我应该使用gevent还是其他什么? 我是否可以通过从Tornado和线程访问UserData来遇到问题? 只要没有服务器崩溃,数据一致性在这里并不重要。


龙卷风不打算与多线程一起使用。 它基于epoll在代码的不同部分之间切换上下文。

一般来说,我建议通过消息队列将数据发送给单独的工作进程(比如pika + RabbitMQ,它与Tornado很好地集成在一起)。 工作进程可以累积带有数据的消息并批量写入数据库,或者可以使用此设置实现任何其他数据处理逻辑。

或者,您可以使用例如Redis with brukva将传入数据异步写入内存数据库,然后依据Redis配置将其异步转储到磁盘。

链接地址: http://www.djcxy.com/p/52495.html

上一篇: Tornado Web and Threads

下一篇: Node.js + Nginx