• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    利用Redis实现SQL伸缩的方法

    这篇文章主要介绍了利用Redis实现SQL伸缩的方法,包括讲到了锁和时间序列等方面来提升传统数据库的性能,需要的朋友可以参考下。

    缓解行竞争

    我们在Sentry开发的早起采用的是sentry.buffers。 这是一个简单的系统,它允许我们以简单的Last Write Wins策略来实现非常有效的缓冲计数器。 重要的是,我们借助它完全消除了任何形式的耐久性 (这是Sentry工作的一个非常可接受的方式)。

    操作非常简单,每当一个更新进来我们就做如下几步:

    现在每一个时间刻度 (在Sentry中为10秒钟) 我们要转储(dump)这些缓冲区并且扇出写道(fanout the writes)。 看起来像下面这样:

    现在RabbitMQ作业将能够读取和清除哈希表,和“悬而未决”更新已经弹出了一套。有几件事情需要注意:

    我们有了这个处理问题的模型之后,能够确保“大部分情况下”每次在SQL中只有一行能够被马上更新,而这样的处理方式减轻了我们能够预见到的锁问题。考虑到将会处理一个突然产生且所有最终组合在一起进入同一个计数器的数据的场景,这种策略对Sentry用处很多。

    速度限制

    出于哨兵的局限性,我们必须终结持续的拒绝服务攻击。我们通过限制连接速度来应对这种问题,其中一项是通过Redis支持的。这无疑是在sentry.quotas范围内更直接的实现。

    它的逻辑相当直接,如同下面展示的那般:

    def incr_and_check_limit(user_id, limit): 
     key = '{user_id}:{epoch}'.format(user_id, int(time() / 60)) 
      
     pipe = redis.pipeline() 
     pipe.incr(key) 
     pipe.expire(key, 60) 
     current_rate, _ = pipe.execute() 
      
     return int(current_rate) > limit 

    我们所阐明的限制速率的方法是 Redis在高速缓存服务上最基本的功能之一:增加空的键字。在高速缓存服务中实现同样的行为可能最终使用这种方法:

    def incr_and_check_limit_memcache(user_id, limit): 
     key = '{user_id}:{epoch}'.format(user_id, int(time() / 60)) 
      
     if cache.add(key, 0, 60): 
      return False 
      
     current_rate = cache.incr(key) 
      
     return current_rate > limit 

    事实上我们最终采取这种策略可以使哨兵追踪不同事件的短期数据。在这种情况下,我们通常对用户数据进行排序以便可以在最短的时间内找到最活跃用户的数据。

    基本锁

    虽然Redis的是可用性不高,我们的用例锁,使其成为工作的好工具。我们没有使用这些在哨兵的核心了,但一个示例用例是,我们希望尽量减少并发性和简单无操作的操作,如果事情似乎是已经在运行。这对于可能需要执行每隔一段时间类似cron任务非常有用,但不具备较强的协调。

    在Redis的这样使用SETNX操作是相当简单的:

    from contextlib import contextmanagerr = Redis()@contextmanagerdef lock(key, nowait=True): 
     while not r.setnx(key, '1'): 
      if nowait: 
       raise Locked('try again soon!') 
      sleep(0.01) 
      
     # limit lock time to 10 seconds 
     r.expire(key, 10) 
      
     # do something crazy 
     yield 
      
     # explicitly unlock 
     r.delete(key) 

    而锁()内的哨兵利用的memcached的,但绝对没有理由我们不能在其切换到Redis。
    时间序列数据

    近来我们创造一个新的机制在Sentry(包含在sentry.tsdb中) 存储时间序列数据。这是受RRD模型启发,特别是Graphite。我们期望一个快速简单的方式存储短期(比如一个月)时间序列数,以便于处理高速写入数据,特别是在极端情况下计算潜在的短期速率。尽管这是第一个模型,我们依旧期望在Redis存储数据,它也是使用计数器的简单范例。

    在目前的模型中,我们使用单一的hash map来存储全部时间序列数据。例如,这意味所有数据项在都将同一个哈希键拥有一个数据类型和1秒的生命周期。如下所示:

    { 
     
      "type enum>:epoch>:shard number>": { 
     
        "id>": count> 
     
      }} 

    因此在这种状况,我们需要追踪事件的数目。事件类型映射到枚举类型"1".该判断的时间是1s,因此我们的处理时间需要以秒计。散列最终看起来是这样的:

     { 
     
      "1:1399958363:0": { 
     
        "1": 53, 
     
        "2": 72, 
     
      }} 

    一个可修改模型可能仅使用简单的键并且仅在存储区上增加一些增量寄存器。

    "1:1399958363:0:1": 53 

    我们选择哈希映射模型基于以下两个原因:

    我们可以将所有的键设为一次性的(这也可能产生负面影响,但是目前为止是稳定的)

    大幅压缩键值,这是相当重要的处理

    此外,离散的数字键允许我们在将虚拟的离散键值映射到固定数目的键值上,并在此分配单一存储区(我们可以使用64,映射到32个物理结点上)

    现在通过使用 Nydus和它的map()(依赖于一个工作区)(),数据查询已经完成。这次操作的代码是相当健壮的,但幸好它并不庞大。

    def get_range(self, model, keys, start, end, rollup=None): 
     """ To get a range of data for group ID=[1, 2, 3]: Start and end are both inclusive. >>> now = timezone.now() >>> get_keys(tsdb.models.group, [1, 2, 3], >>>   start=now - timedelta(days=1), >>>   end=now) """ 
     normalize_to_epoch = self.normalize_to_epoch 
     normalize_to_rollup = self.normalize_to_rollup 
     make_key = self.make_key 
      
     if rollup is None: 
      rollup = self.get_optimal_rollup(start, end) 
      
     results = [] 
     timestamp = end 
     with self.conn.map() as conn: 
      while timestamp >= start: 
       real_epoch = normalize_to_epoch(timestamp, rollup) 
       norm_epoch = normalize_to_rollup(timestamp, rollup) 
      
       for key in keys: 
        model_key = self.get_model_key(key) 
        hash_key = make_key(model, norm_epoch, model_key) 
        results.append((real_epoch, key, conn.hget(hash_key, model_key))) 
      
       timestamp = timestamp - timedelta(seconds=rollup) 
      
     results_by_key = defaultdict(dict) 
     for epoch, key, count in results: 
      results_by_key[key][epoch] = int(count or 0) 
      
     for key, points in results_by_key.iteritems(): 
      results_by_key[key] = sorted(points.items()) 
     return dict(results_by_key) 

    归结如下:

    以上就是如何利用Redis实现SQL伸缩的方法,希望对大家的学习有所帮助。

    您可能感兴趣的文章:
    • 在Ruby on Rails上使用Redis Store的方法
    • python操作redis的方法
    • php-redis中的sort排序函数总结
    • Redis sort 排序命令详解
    • 图文介绍PHP添加Redis模块及连接
    • 在Mac下如何安装phpredis扩展
    • 详解Redis中的双链表结构
    • Redis中的动态字符串学习教程
    • Windows下Redis的安装使用图解
    • Redis的11种Web应用场景简介
    • 用Redis实现微博关注关系
    上一篇:Redis中的动态字符串学习教程
    下一篇:Windows下Redis的安装使用图解
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    利用Redis实现SQL伸缩的方法 利用,Redis,实现,SQL,伸缩,