`
datamachine
  • 浏览: 164003 次
社区版块
存档分类
最新评论

集算器和R语言处理外存文本文件的对比

阅读更多

  作为数据计算语言,集算器和R语言都提供了丰富的功能用来处理外存中的文本文件。两者在基本用法上有很多相似之处,但区别也很明显,比如处理列宽固定的文件、读写指定的列、处理大文本文件,计算性能等方面。下面详细对比两者的异同。

1、基本功能对比

  描述:

  sales.txt共有六列,列之间以制表符(\t)分割,行之间以换行符(\n)分割,其中第一行为列名。请将该文件读入内存,再原样写入新的文件。该文件的前几行如下:

 

  集算器:

    data=file(“e:\\sales.txt”).import@t()

    file(“e:\\salesResult.txt”).export@t(data)

  R语言:

    data<-read.table(“e:\\sales.txt”,sep=”\t”, header=TRUE)

    write.table(data, file=”e:\\ salesResult.txt”,sep=”\t”,quote=FALSE,row.names=FALSE)

  对比:

  (1)两者都可以方便地实现本功能,其中集算器需要用函数选项“@t”表示第一行为列名,而R语言使用“header=TURE”。

  (2)换行符是最常见的行分割符,集算器和R语言默认支持换行符。制表符是最常见的列分割符,集算器默认支持制表符,如需指定其他分割符(比如逗号)则应当写作“import@t(;”,”)”。R语言支持的默认列分隔符是“空格和制表符”,这会把含有空格的Client列错误地分为两列,因此需要用sep=”\t”来明确分割符只能是制表符。另外,代码中的“quote=FALSE,row.names=FALSE”表示和源文件一样,不用给元素加引号,也不用输出行号。

  (3)文件被读到内存后一般都以结构化二维数据对象来存储,这在集算器中被称为序表(TSeq),在R语言中被称为数据框(data.frame)。序表和数据框都支持丰富的计算功能,比如按Client和SellerId分组,分组后对Amount求和并求最大值。集算器实现该算法的代码是:

  data.groups(Client,SellerId;sum(Amount),max(OrderID))

  数据框不直接支持同时使用多种汇总方法,因此求和、求最大值要分为两步,最后再通过cbind拼合结果,如下:

    result1<-aggregate(data[,4],data[c(2,3)],sum) 

    result2<-aggregate(data[,1],data[c(2,3)],max)

    result<-cbind(result1,result2[,3])

  (4)除内存中的结构化二维数据对象外,集算器还能用游标对象来访问文件,R则能用矩阵对象来访问文件。

  结论:对于基本的文件读写,集算器和序表都提供了足够丰富的函数功能,可以很好的满足需求。

2、读取列宽固定的文件

  有些文件没有分隔符来区分不同的列,而是用固定的宽度来区分。比如,请将下面含有三列数据的static.txt文件读入内存,并将列名分别改为: col1、col2、col3。其中,col1宽度为1,col2宽度为4,col3宽度为3。

    A1.501.2
    A1.551.3
    B1.601.4
    B1.651.5
    C1.701.6
    C1.751.7

  集算器:

    data=file(“e:\\static.txt”).import()

    data.new(mid(_1,1,1):col1, mid(_1,2,4):col2, mid(_1,6,8):col3)

  R语言:

  data<-read.fwf(“e:\\sales.txt “, widths=c(1, 4, 3),col.names=c(“col1″,”col2″,”col3″))

  对比:R语言可以直接实现本功能。集算器只能间接实现,即将文件读入内存后再拆分成多个列。请注意:代码mid(_1,1,1)中的”_1”是默认列名,如果读入的文件有多个列,则默认列名依次是:_1、_2、_3等。

  结论:R语言能够直接读取列宽固定的文件,比集算器更方便。

3、读写指定的列

  有时出于节省内存提高性能等目的,我们需要读取部分的列数据。本例需要将sales.txt中的ORDERID、CLIENT、AMOUNT这三列读入内存,并将ORDERID、AMOUNT写入新的文件。

  集算器:

    data=file(“e:\\sales.txt”).import@t(ORDERID,CLIENT,AMOUNT)

    file(“e:\\salesResult.txt”).export@t(data,ORDERID,AMOUNT)

  R语言:

    data<-read.table(“e:\\sales.txt”,sep=”\t”, header=TRUE)

    col3<-data[,c(“ORDERID”,”CLIENT”,”AMOUNT”)]

    col2<-col3[,c(“ORDERID”,”AMOUNT”)]

    write.table(col2, file=”e:\\ salesResult.txt”, sep=”\t”,quote=FALSE,row.names=FALSE)

  对比:集算器可以直接实现本功能。R语言只能间接实现,即将所有的列全部读入内存,再将指定的列存入新的变量。

  结论:R语言只能将所有的列全部读入内存,会占用较大的内存空间。

4、处理大文本文件

  大文本文件是指超过内存空间的文件。读取大文本文件通常要采取分批读取分批计算的办法。比如这个例子:针对大文本文件sales.txt,过滤出Amount>2000的数据,并计算每个SellerId的Amount总额。

  集算器


  A1:将大文件全部读入内存会导致内存溢出,因此用游标分批读入。

  A2:循环读数,每次读入100000条,存储于序表A2。

  B3:针对每批数据,过滤出订单金额在2000以上的记录。

  B4:接着对过滤后的数据进行分组汇总,求得这个批次每个销售员的销售额。

  B5:将本批次的计算结果追加到某个变量(B1)中,并进行下一批次的计算。

  B6:所有批次都计算完后,B1中应该存储着每个销售员在每个批次中的销售额,所以最后还要进行一次分组汇总,从而求得每个销售员的总销售额。

  R语言

1    colnames=c("ORDERID","CLIENT","SELLERID","AMOUNT","ORDERDATE")
2     mat=matrix(nrow=0,ncol=length(colnames))
3     data=as.data.frame(mat)
4     colnames(data)=colnames
5     
6     colnames=c("SELLERID","AMOUNT","x")
7     mat=matrix(nrow=0,ncol=length(colnames))
8     agg=as.data.frame(mat)
9     colnames(agg)=colnames
10    
11    con <- file("e:\\sales.txt ", "r")
12    readLines(con,n=1)
13    lines=readLines(con,n=100000)
14    while( length(lines) != 0) {
15      databatch<-data
16      for(line in lines){
17        row<-strsplit(line,'\t')
18        record<- data.frame(ORDERID=row[[1]][1],CLIENT=row[[1]][2],SELLERID=row[[1]][3], AMOUNT=as.numeric(row[[1]][4]), ORDERDATE=row[[1]][5])
19        databatch=rbind(databatch,record)
20      }
21      databatch <- databatch [databatch $AMOUNT>2000,]
22      aggbatch<-aggregate(databatch[,4],databatch[c(3)],sum)
23      agg<-rbind(agg,aggbatch)
24      lines=readLines(con,n=10)
25    }
26    
27    result<-aggregate(agg[,2],agg[c(1)],sum)

 

  1-4:建立空的数据框data,用来生成每批次的数据框databatch。

  5-9:建立空的数据框agg,用来追加各批次分组汇总的结果。

  11-13:按行读入文件,跳过第一行的列名,每次读入100000行。

  15-21:针对每批数据,过滤出订单金额在2000以上的记录。

  22:接着对过滤后的数据进行分组汇总,求得这个批次每个销售员的销售额。

  23:将本批次的计算结果追加到某个变量(agg)中,并进行下一批次的计算。

  24:所有批次都计算完后,B1中应该存储着每个销售员在每个批次中的销售额,所以最后还要进行一次分组汇总,从而求得每个销售员的总销售额。

  对比:

  (1)两者的算法思路一致,但集算器使用库函数就可以实现算法,代码简洁易懂,R语言则需要手工处理大量细节,代码繁杂冗长容易出错。

  (2)使用集算器游标,可以更简单地完成上述算法,即:

 

  在这段代码中,集算器引擎会自动分批处理数据,程序员无需用循环语句手工控制。

  结论:处理大文本文件时,集算器代码比R语言简洁易懂,方式更加灵活。

5、并行处理大文本文件

  并行计算可以充分利用多核CPU的资源,会显著提高计算性能。

  仍然使用上一节的例子来进行比较,但改为并行算法,即:将sales.txt分为4段,依次分给4个cpu核心计算,最终过滤出Amount>2000的数据,并计算每个SellerId的Amount总额。

  集算器:

  主程序(pro5.dfx)

 

  A1:并行任务数设为4,即将文件分为4段。

  A2:调用子程序进行多线程并行计算,任务参数有两个:to(A1)、A1。to(A1)的值是[1,2,3…24],这表示每个任务分配到的段数;A1是总段数。所有任务都结束后,计算结果会统一存储在本单元格。

  A3:对A2中各任务的计算结果按照SellerId归并。

  A4:对归并结果进行分组汇总,求得每个销售员的销售额。

  子程序(sub.dfx)

 

  A1:用游标读取文件,按照主程序传来的参数决定当前任务应该处理文件中的第几段。比如第3个任务,segment参数的值就是3,total的值恒为4。

  A2:选出订单金额在2000以上的记录。

  A3:对过滤后的数据进行分组汇总。

  A4:将本任务的计算结果返回主程序。

  R语言

  无法直接用并行算法实现本案例。

  对比:

  集算器支持按照字节数分段读取大文本文件,可以快速跳过前面的无用数据而读取指定段,从底层起就支持多线程并行计算。

  R语言虽然支持内存数据的并行计算,但不支持按字节数分段读取外存文件,只支持跳过若干行再读取数据。这种方式必须遍历无用数据,性能很低,无法在底层支持大文本文件的并行计算。

  另外,按字节数分段会遇到半行数据的情况,而集算器已经对此进行了自动处理,如上述代码所示,程序员无需进行手工处理。

  总结:集算器支持并行处理大文本文件,计算性能很高。R语言无法在底层支持大文本文件的并行计算,性能差得多。

6、计算性能

  在同样的测试环境下,使用集算器和R语言读取字节数为1G的文件,并对其中一个字段进行汇总。

  集算器:

        =file(“d:/T21.txt”).cursor@p(#1:long)

        =A1.groups(;sum(#1))

  R语言

        con<- file(“d:/T21.txt”, “r”)
        lines=readLines(con,n=1024)
        value=0
        while( length(lines) != 0) {
                 for(line in lines){
                          data<-strsplit(line,’\t’)
                         value=value+as.numeric(data[[1]][1])
                 }
                 lines=readLines(con,n=1024)
        }
        print(value)
        close(con)

 

  对比:

  (1)集算器耗时26秒,R语言耗时9分47秒,两者的差距超出了一个数量级。

  (2)对于大文件的处理,R语言无法使用数据框对象和库函数,只能手工书写循环语句边读边算,因此性能很低。集算器可以直接使用游标对象和库函数,因此性能较高。处理小文件时两者的区别不会有这么大。

  总结:处理大文本文件时,集算器的性能大幅超过R语言。

  • 大小: 34.6 KB
  • 大小: 28.8 KB
  • 大小: 17 KB
  • 大小: 21 KB
  • 大小: 23.2 KB
1
0
分享到:
评论

相关推荐

    两个 文本文件 逐行比较 文件内容 找出独有文本行

    本主题聚焦于“两个文本文件逐行比较文件内容找出独有文本行”,这是一个典型的文本处理操作,常用于查找差异、合并数据或者验证文件一致性。下面我们将详细探讨这个过程及其相关技术。 首先,我们要理解文本文件...

    R语言简介

    - **R语言环境**:R语言运行在一个特定的环境中,该环境包含了各种工具和资源,使用户能够进行数据处理、统计分析等工作。 - **相关的软件和文档**:R语言本身是开源的,并且拥有庞大的社区支持。这意味着存在大量的...

    R语言笔记:数据分析与绘图的编程环境

    R语言不仅仅是一个编程语言,它还包含了一系列的工具和支持文档,例如官方文档、用户手册等,这些资源对于初学者来说非常有用。 **1.3 R与统计** R语言最初是为了统计计算而开发的,因此在处理统计问题方面具有...

    文本文件提取分析_文件读写_文本分析_源码

    在IT领域,文本文件的处理是一项基础且重要的任务,尤其在大数据分析、自然语言处理(NLP)和信息检索中。本项目“文本文件提取分析_文件读写_文本分析_源码”专注于使用Python语言,结合jieba库对中文文本进行高效...

    准确的行级文本检测和识别(OCR)在任何语言.zip

    文本检测和识别(OCR,Optical Character Recognition)技术是一种用于将图像中的文本..."准确的行级文本检测和识别(OCR)在任何语言.zip"的资源将帮助开发者构建或增强自己的OCR系统,尤其对于处理多语言文本的需求。

    R语言数据分析R语言数据分析

    R语言是一种广泛应用于统计分析、数据挖掘和图形可视化的强大工具。它以其开源、免费、社区活跃和丰富的库支持等特点,成为了数据科学家和统计学者的首选语言之一。在这个"R语言数据分析"的主题中,我们将深入探讨R...

    金融股市数据集.zip

    为了充分利用这个数据集,你需要掌握数据分析的基本技能,如使用Excel、Python或R语言进行数据清洗、处理和可视化。此外,了解统计学和金融建模的知识也很重要,比如时间序列分析、回归模型、风险管理和投资组合优化...

    快速比对两个txt文件内容是否一致

    在IT行业中,文本比对是一项常见的任务,尤其在...对于日常办公中需要批量处理文本文件的情况,这样的工具无疑提高了工作效率。同时,了解这些Python模块的工作原理,也有助于深入理解文本处理和文件操作的相关知识。

    文本聚类探索:使用K均值、层次和HDBScan算法 比较 报告 R语言

    文本聚类旨在基于内容将相似的文档分组在一起,并从数据中提取有意义的模式和见解。 对比三个聚类算法的结果,我们可以观察到 K-means 聚类具有最高的平均轮廓系数(0.7965698),表明簇之间有很好的分离。层次聚类...

    R语言简介,PDF格式的

    R语言是一种广泛使用的统计计算和图形生成工具,其强大的数据处理能力和丰富的可视化功能使其成为数据分析领域的重要工具之一。R语言支持多种操作系统,包括Windows、Mac OS和Linux等。 - **R语言环境**:R语言提供...

    REDD数据集

    对于二进制文件,可能需要知道文件的内部结构和数据类型,而文本文件则可能可以直接读取。 在对REDD数据集进行分析时,可以关注以下几个方面: 1. **数据预处理**:清洗数据,处理缺失值,确保时间序列的连续性。...

    Peterson Newman访谈数据集.zip

    CSV格式的数据集便于使用各种编程语言如Python、R等进行数据处理和分析,可以轻松地导入到数据分析工具如Excel或Pandas库中。 ignore.txt文件通常是用来指示程序忽略某些特定的文件或路径,这在开发和训练模型时...

    tesseract-ocr安装包和中文语言包.zip

    在人工智能领域,Tesseract OCR常被用于自动文本检测和提取,比如自动处理发票、身份证等文档,或者从社交媒体图片中提取文字。配合深度学习技术,可以进一步提升识别的准确性。例如,可以结合卷积神经网络(CNN)和...

    R语言绘制SCI科研饼图源代码.zip

    如果是一个R脚本(如`.R`文件),你需要用RStudio或其他文本编辑器打开,查看并理解其中的代码逻辑。脚本通常会包含数据导入、数据处理以及绘制饼图的指令。例如,数据可能存储为CSV格式,导入命令可能是: ```r ...

    以Java和Python为例,展示如何使用文件流来操作文本文件.rar

    在IT行业中,文件流是处理数据输入和输出的重要机制,特别是在读取、写入和处理大量文本文件时。本教程将深入探讨Java和Python这两种流行编程语言如何利用文件流进行文本文件的操作。让我们分别来看看Java和Python中...

    用于处理fastafastqtable格式数据的工具集。通常它们是perl脚本。_Perl_R_下载.zip

    "R"可能是指R语言,这是一种用于统计计算和图形制作的开源编程环境,也被广泛应用于生物信息学分析,特别是在数据分析、可视化和统计建模方面。 压缩包文件名"NGS_data_processing-master"暗示这是一套针对NGS数据...

    (读取文件中时间戳)中数据集

    这种格式在很多数据处理任务中非常常见,常见于文本文件或CSV文件中。数据集中的每一列可能代表一个特定的属性或维度,例如时间戳、日期、数值数据等。 2. 数据类型: 数据集中的字段可以分为不同的数据类型。例如...

    HA_4EmEditor Pro v7.00.4 汉化版 可以使用转义符替换回车的编辑器

    4. **大文件处理**:能够打开和编辑超大文件,甚至超过4GB的文本文件。 5. **自定义设置**:允许用户根据个人习惯调整界面布局、快捷键、字体等,实现个性化定制。 6. **代码高亮**:对各种编程语言进行语法高亮,使...

    多语种NLP测试资源,batch

    这样的资源对于开发和优化跨语言的聊天机器人、翻译系统、情感分析工具、问答系统、文本分类器以及其他NLP应用至关重要。 标签中的"自然语言处理"(NLP)、"batch"、"人工智能"(AI)和"开发语言"揭示了这个压缩包...

Global site tag (gtag.js) - Google Analytics