`
hjy2099
  • 浏览: 262555 次
  • 性别: Icon_minigender_1
  • 来自: 福州
社区版块
存档分类
最新评论

redis pipe大数据量导入

 
阅读更多

         由于做性能测试,需要往redis中导出千万级的数据。得知redis-cli工具支持pipeline导入可以达到最佳性能。由于刚接触redis以及对文档的格式不是很了解,走了很多的弯路。

         从官方文档(http://redis.io/topics/mass-insert)我们可以得知数据格式。

*3\r\n            命令起始,定义共3个输入参数
$3\r\n            下一个参数字节长度
SET\r\n           命令参数
$3\r\n             下一个参数字节长度
key\r\n           变量参数
$5\r\n            下一个参数字节长度
value\r\n        值参数

注意:此处的\r\n为换行符,不是输入的字符。在这里我耗了很长的时间。。。。英文不好没办法。

    用记事本打开后,数据格式如下图所示:

  

 

   这里我用JAVA代码,供大家参考:

 

/**
     * 格式化成输入字符串
     * @param args
     * @return
     */
    private String getString(String... args){
        StringBuilder sb = new StringBuilder();
        sb.append("*").append(args.length).append("\r\n");
        for(String arg : args){
            sb.append("$").append(arg.length()).append("\r\n");
            sb.append(arg).append("\r\n");
        }
        return sb.toString();
    }
    
    public void initFile2(){
        String file= "G:\\2.txt";
        BufferedWriter w = null;
        StringBuilder sb = new StringBuilder();
        try {
            w = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file), "utf-8"));
            for(int i=10000000 ;i <= 10100000;i++){
                if(i/30000 == 0){
                    w.flush();
                }
                sb.setLength(0);
                sb.append(this.getString("hmset","usr"+i,"userid","usr"+i,"username","usrname"+i));
                w.append(sb.toString());
            }
        } catch (UnsupportedEncodingException e) {
            e.printStackTrace();
        } catch (Exception e) {
            e.printStackTrace();
        } finally{
            try {
                w.flush();
                w.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
            
        }
    }

 

    最后,将生成的文本使用     cat 2.txt  | redis-cli --pipe ,导入的效率十分之高。本人在本本的虚拟机上,导入500万条个hashmap(7个KEY),花费43秒时间。

  • 大小: 2.9 KB
2
2
分享到:
评论
1 楼 sflscar 2017-01-06  
太好了,我搞了一下午,批量插入,第一个参数个数没对sql批量导入redis没导入。非常感谢你的文章

相关推荐

    Redis数据导入导出以及数据迁移的4种方法详解

    Redis 数据导入导出和数据迁移是 Redis 管理中的重要环节,对于数据备份、故障恢复、集群扩展等场景有着至关重要的作用。本文将详细解析 Redis 数据导入导出的4种方法。 首先,我们来看第一种方法:使用 AOF...

    如何高效地向Redis插入大量的数据(推荐)

    在处理大数据量的存储任务时,Redis作为一个高性能的键值存储系统,其高效的数据插入能力至关重要。本文将探讨如何高效地向Redis插入大量数据,重点介绍Redis的管道(Pipeline)模式以及其优势。 首先,我们了解为...

    redis导入到处数据备份

    这个过程适用于小规模数据,对于大量数据,可能需要考虑分批处理以避免阻塞Redis服务器。 2. **Redis的数据导出** Redis的数据导出通常涉及到`rdb`或`aof`两种持久化方式。RDB是Redis的一种快照持久化,可以在特定...

    Redis-PipeLine批量导入.docx

    在处理大量数据导入时,为了提高效率,Redis 提供了一种称为 Pipeline 的技术,允许一次性发送多条命令,减少网络通信的开销。批量导入数据可以显著提升数据处理速度,尤其在需要初始化大量数据或进行数据迁移时。 ...

    Python-redis

    在Python编程环境中,Redis作为一个高效的数据存储和缓存系统,常被用于处理大量数据,提供高速的数据读写操作。要使用Redis与Python进行交互,我们需要利用`redis`这个Python库。这个库使得我们可以方便地通过...

    python使用pipeline批量读写redis的方法

    在处理大数据量读写时,传统的单次请求-响应模型可能会成为性能瓶颈。 pipeline功能是Redis提供的一种批量处理命令的方式。通过pipeline,可以在一次网络往返中发送多个命令,从而减少了网络I/O次数,提高了执行...

    Python获取Redis所有Key以及内容的方法

    在Python编程中,Redis是一个...然而,这种方法在大数据量的情况下可能会消耗较多资源,因此在生产环境中需要谨慎使用,尤其是在处理大规模数据时,可能需要考虑其他优化策略,如分批次获取或使用其他数据处理工具。

    python redis连接 有序集合去重的代码

    在实际应用中,有序集合的去重功能非常适合处理大量数据,因为Redis在内存中操作,速度非常快。同时,有序集合的排序特性使得我们可以轻松地根据分数(如时间戳)对数据进行排序和查询。 总结一下,Python连接Redis...

    Python库 | hiredis-2.0.0.dev0-cp39-cp39-win32.whl

    这大大提高了处理速度和效率,尤其在处理大量数据或高并发场景时。 **安装hiredis** 通常,Python库的安装可以通过pip完成。但是,由于我们这里有一个名为"hiredis-2.0.0.dev0-cp39-cp39-win32.whl"的预编译whl...

Global site tag (gtag.js) - Google Analytics