`
simohayha
  • 浏览: 1404088 次
  • 性别: Icon_minigender_1
  • 来自: 火星
社区版块
存档分类
最新评论

ydb的内存模型

阅读更多
阿宝同学推荐了这个东西,因此周末就大概看了下源码,这里就简要的分析下它的实现,下面是他的特性。

项目地址在这里:

http://code.google.com/p/ydb/

引用
# YDB is a key-value storage library.
# Simple API, only 6 methods (open, close, sync, get, set, del).
# The data files are append-only (aka: log or journal).
# As the data files are immutable it's rsync-friendly (though index is mutable, but should be reasonably small)
# Index is stored in the memory and rarely dumped to the disk.
# As the index is in memory, GET requests need at most one disk-seek.
# SET request requires at most one disk-seek to write the data. On average the cost is 0 disk seeks, due to append-only file structure and operating system write caches.
# It's spinning-disk friendly: it's optimized to take an advantage the fast sequential access to the disk.
# it's flash-disk friendly: data is never modified, so there's no need to read-clear-write flash sectors.
# Once in a while the garbage-collector is started to remove old log files to save disk space. This can slow down the db up to two times.


ydb,它是把index存储在内存中,index的内存模型就是一颗红黑树,每次通过红黑树的key得到对应硬盘上的数据文件,以及所需数据在当前文件的偏移。从而得到当前的数据。它的存储是类似log,就是将数据每次append到文件结尾。

先来看它的几个数据结构:

首先就是db,它表示了当前的一个db对象,包括了索引,以及log文件的表示。

struct db {
	u32	magic;
///这个就是你的数据以及index的存储文件的目录。
	char	*top_dir;
///tree用来表示index。
	struct tree	tree;
///保存了当前的所有的数据文件的信息。
	struct loglist	loglist;
///
	int overcommit_ratio;
	int flags;
///下面这几个是用来gc。
	int gc_enabled;
	int gc_running;
	int gc_finished;
	pthread_t gc_thread;
	
	pthread_mutex_t lock;	/**/
};


接下来就是tree结构,它用来表示数据index的根结点。。
struct tree {
	char *fname;		/* Base name of index file. */
///这里是为了防止索引文件被破坏,因此会有个备份。
	char *fname_new;	/* Name of new index file, *.new */
	char *fname_old;	/* Name of previous index, *.old */
///红黑树的根结点。
	struct rb_root root;
///表示最后一次提交,也就是写入的数据文件的number以及在当前文件的偏移。
	int commited_last_record_logno;
	u64 commited_last_record_offset;
///和上面的区别就是这里的两个值是没有提交的。
	int last_record_logno;	
	u64 last_record_offset;
///key的个数和大小。
	u64 key_counter;
	u64 key_bytes;		/* used to store keys (incl header and padding) */
	u64 value_bytes;	/* used to store values (incl header and padding) */
	///这个域包含了每个数据文件的引用计数(也就是每个数据文件所包含的元数据的个数)
	r_arr refcnt;
};


item表示了索引的红黑树的叶子节点:

struct item {
	struct rb_node node;
///当前key对应的数据所在的文件的number。
	int logno;
///当前key所对应的数据所在的文件的偏移
	u64 value_offset;
///数据的大小。
	u32 value_sz;
///key的大小以及key的值。
	u16 key_sz;
	char key[];
};


还有一个index_item,它就是索引文件的直接映射,它和上面的item很类似就是加了校验位,以及magic,我们最终要通过这个结构来生成item。

struct index_item{
	u32	magic;
	u32	checksum;

	int	logno;
	u64	value_offset;

	u16	key_sz;
	u32	value_sz;

	char	key[];
};



然后是loglist,它其实是包含了log数据结构的一个数组。

struct loglist {
///这里包含了log(也就是数据文件)的数组。
	r_arr logs;
	char *top_dir;
	char *unlink_base;
///当前最新的一个文件的number,以及fd。(由于ydb的结构类似log,因此每次写都是写在最新的那个文件)
	int write_logno;
	int write_fd;

	u64 min_log_size;
	u64 total_bytes; /* total size of all logs */

	u64 appended_bytes;
}


然后来看log结构,它结构很简单,就是表示了一个数据文件的句柄,文件名以及大小:

struct log {
	int fd;
	char *fname;
	u64 file_size;
};


然后我们主要来看ydb_open的实现,其他的方法就大概描述下:


#define YDB_CREAT       (0x01)
#define YDB_RDONLY      (0x02)
#define YDB_GCDISABLE   (0x04)
YDB ydb_open(char *top_dir,
	     int overcommit_ratio,
	     unsigned long long min_log_size,
	     int flags)


其中第一个参数是索引以及数据文件的目录,第二个参数表示,第三个参数表示数据文件的最小值,最后一个也就是上面的事个宏。意思基本就是字面的意思。

这次我们将代码分片(省略了一些合法性判断)来看。

首先新建一个db对象,然后将传递进来的参数赋值给它,并
	struct db *db = (struct db *)zmalloc(sizeof(struct db));
	db->magic = YDB_STRUCT_MAGIC;
	db->top_dir = strdup(top_dir);
	db->overcommit_ratio = overcommit_ratio;
	db->lock = (pthread_mutex_t)PTHREAD_MUTEX_INITIALIZER;
	db->flags = flags;
	



然后通过top_dir,来得到索引的文件名,这里可以看到索引的文件名为top_dir/index.ydb.得到文件名后,进入tree_open,将索引加载到内存中,这里可以看到传递给tree_open的logno是一个指针,这标明当它返回后会修改这个值,最终这个值会被修改为当前的写的那个数据文件的number。

最后调用loglist_open来初始化loglist,也就是数据文件的链表。
char buf[256];
	snprintf(buf, sizeof(buf), "%s%s%s", top_dir, PATH_DELIMITER, "index.ydb");
	
	int logno = 0;
	u64 record_offset = 0;
	if(tree_open(&db->tree, buf, &logno, &record_offset, flags) < 0) {
		if(!(flags & YDB_CREAT)) {
			log_error("Failed to load index file from %s", top_dir);
			/* TODO: memleaks here */
			return(NULL);
		}
	}
	
	int r = loglist_open(&db->loglist, top_dir, min_log_size, max_descriptors());
	if(r < 0){
		/* TODO: memleaks here */
		return(NULL);
	}


之所以需要同步索引,是为了防止ydb异常关闭而导致的数据和索引文件的不匹配。(因为这里索引文件是通过内存映射来操作的)

接下来比对索引树和数据文件,其实也就是根据数据文件链表来重新构造索引树,它是用来防止数据文件和索引树不同步。
它是通过遍历loglist,并读取每个数据文件的元数据然后来同步index树。

	int record_sz = END_OF_FILE;
	while(1) {
		if(record_sz == END_OF_FILE) {
			/* find an edge */
///得到当前的数据文件。
			struct log *log = slot_get(&db->loglist, logno);
。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
		char key[MAX_KEY_SIZE];
		u16 key_sz = MAX_KEY_SIZE-1;
		int flags;
		u64 value_offset;
		u32 value_sz;
///其中flags是元数据的属性,因为在ydb中的删除是标记删除的,因此当flags为FLAG_DELETE时,我们需要从索引树中删除这条索引。
		record_sz = loglist_get_record(&db->loglist,
					logno, record_offset,
					key, &key_sz,
					&value_offset, &value_sz,
					&flags);
///这个表示一个数据文件已经遍历结束,该遍历下一个文件。
		if(record_sz == END_OF_FILE) {
			logno++;
			record_offset = 0;
			continue;
		}
///文件遍历完毕。
		if(record_sz == NO_MORE_DATA)
			break;
		
		if(FLAG_DELETE & flags) {
///删除索引
			tree_del(&db->tree, key, key_sz, logno, record_offset);
		}else{
			tree_add(&db->tree, key, key_sz, logno, value_offset, value_sz, record_offset);
		}
		record_offset += record_sz;
	}



最后一步,也是一个校验,为了防止索引文件中的key所对应的数据文件没有被加载到loglist中。
int start = MIN(rarr_min(db->tree.refcnt), rarr_min(db->loglist.logs));
	int stop  = MAX(rarr_max(db->tree.refcnt), rarr_max(db->loglist.logs));
	for(logno=start; logno<stop; logno++) {
///得到当前数据的引用计数
		uint refcnt = refcnt_get(&db->tree, logno);
///表示当前的数据文件。
		struct log *log = slot_get(&db->loglist, logno);
		if(refcnt == 0 && log == NULL)
			continue;
		if(refcnt && log)
			continue;
		if(refcnt) {
			log_error("Log %i(0x%x) used, but file is not loaded!", logno, logno);
			log_error("Sorry to say but you'd lost %i key-values.", refcnt);
			log_error("Closing db");
			/*  we're in inconsistent state */
			db_close(db, 0);
			return(NULL);
		}
		if(log)
			continue;
	}
	return db;
}


然后来看下tree_open和log_listopen的实现:


treeopen主要任务就是初始化红黑树,然后加载索引文件到内存,其中加载索引文件到内存是通过tree_load_index来实现的

tree_load_index就不分析了,只大概说下它的步骤。

1 首先通过mmap映射index。db到内存。

2 然后通过index_item结构来存取每个索引,并进行合法性校验。

3 最后将通过校验的item插入到红黑树。

PS:这里觉得它做了两个数据结构不太好,

int tree_open(struct tree *tree, char *fname, int *last_record_logno, u64 *last_record_offset, int flags) {
	char buf[256];	
	tree->fname = strdup(fname);
	tree->refcnt = rarr_new();

///防止索引文件丢失。进行备份。
	snprintf(buf, sizeof(buf), "%s.old", fname);
	tree->fname_old = strdup(buf);
	snprintf(buf, sizeof(buf), "%s.new", fname);
	tree->fname_new = strdup(buf);
///红黑树的根结点赋值。
	tree->root = RB_ROOT;
	
///加载索引文件到红黑树
	return tree_load_index(tree, last_record_logno, last_record_offset, flags);
}



然后是loglist_open函数。它的主要流程是:

1 搜索top_dir目录,找到所有的数据文件。

2遍历这些文件,生成log数据结构,以文件的numbet(文件名中包含的)为索引插入到loglist中。

3 最后打开最后一个数据文件(也就是将要写的那个文件),并将它的相关属性赋值给loglist.

int loglist_open(struct loglist *llist, char *top_dir, u64 min_log_size, int max_descriptors) {
	llist->min_log_size = min_log_size;
	llist->logs = rarr_new();
	llist->top_dir = strdup(top_dir);
	char unlink_base[256];
	snprintf(unlink_base, sizeof(unlink_base), "%s%s%s%s.old",
				top_dir, PATH_DELIMITER, DATA_FNAME, DATA_EXT);
	llist->unlink_base = strdup(unlink_base);
	....................................
	
	/* Load data files */
///系统调用,用来搜索满足glob_str模式的文件。
	glob(glob_str, 0, NULL, &globbuf);
	for(off=globbuf.gl_pathv; off && *off; off++) {
///通过文件名得到logno
		int logno = logno_from_fname(*off, prefix_len, suffix_len);
		log_info("Opening log: %s (%04i)", *off, logno);
///生成log,并插入到数组。
		if(log_open(llist, logno) < 0) {
			log_error("Unable to open log %5i/0x%04x", logno, logno);
			continue;
		}
		max_logno = MAX(max_logno, logno);
	}
	globfree(&globbuf);
	
	if(max_logno < 0) { /* empty directory yet*/
		if(log_create(llist, 0) < 0)
			return(-1);
		max_logno = 0;
	}
///打开writer。		
	if(log_open_writer(llist, max_logno) < 0)
		return(-1);
	return(0);
}



它的get其实很简单,就是根据传递进来的key,在红黑树中得到相应的item结构,然后通过item的logno在loglist得到对应的数据文件,然后通过offset和传递进来的buf_sz从文件中read到需要的数据。

/* Retrieve a value for selected key */
int ydb_get(YDB ydb, char *key, unsigned short key_sz,
            char *buf, unsigned int buf_sz);



最后来看下ydb_add的实现:

/* Add/modify a key */
int ydb_add(YDB ydb, char *key, unsigned short key_sz,
            char *value, unsigned int value_sz);


这里我们暂时略过ydb的gc处理。在ydb-add中,主要调用了db_add方法。

它的主要流程是:

1 调用loglist_append,来将数据写入到对应的log文件,并更新loglist的对应域

2 调用tree_add,来新建或者修改一个item,并加入到索引树中。

int db_add(struct db *db, char *key, u16 key_sz, char *value, u32 value_sz) {
	/* TODO: error handling on write? */
	struct append_info af;
	af = loglist_append(&db->loglist, key, key_sz, value, value_sz, FLAG_SET);
	
	tree_add(&db->tree, key, key_sz, af.logno,
				af.value_offset, value_sz, af.record_offset);
	return 1;
}







分享到:
评论

相关推荐

    YDB之大数据时代

    在数据存储层,YDB支持多种数据模型,如键值对、列族和文档型,适应不同的业务场景。计算层则采用了并行计算技术,如MapReduce或Spark,提高了数据处理效率。管理层则负责元数据管理和资源调度,确保系统的稳定运行...

    YDB编程指南-预览版

    YDB全称延云YDB,是一个基于Hadoop分布式架构下的实时的、多维的、交互式的查询、统计、分析引擎,具有万亿数据规模下的秒级性能表现,并具备企业级的稳定可靠表现。 YDB是一个细粒度的索引,精确粒度的索引。数据...

    延云YDB 大数据 万亿数据秒查

    ### 延云YDB:万亿数据秒级查询与分析引擎 #### 一、概述 随着信息技术的飞速发展,大数据已经成为推动企业决策、产品创新和业务增长的关键力量。面对日益增长的数据规模和复杂的数据结构,传统的数据分析工具已经...

    php调试工具ydb.zip

     ydb也可以称为一个在线调试工具,什么叫在线调试?就是在线上生产环境进行调试,假设有一天某个用户报某个页面某个数据怎么不对啊,看来线上出BUG了,于是你要迅速找出原因,首先看日志,可是悲剧的没有足够的...

    YDB 199-2018 移动互联网+智能家居系统总体要求.pdf

    YDB 199-2018 移动互联网+智能家居系统总体要求.pdf

    YDB 101-2012 物联网安全需求

    YDB 101-2012 物联网安全需求

    YDB144-2014云计算服务协议参考框架..pdf

    YDB144-2014云计算服务协议参考框架

    延云YDB安装与使用说明书v0.21.

    延云YDB安装与使用说明书 超千亿规模的数据,数据库根本就运行不了,怎么办? 数据从产生到能够查询,要延迟一天才能看到,如何能做到分钟级延迟? 50台规模的hadoop集群,几亿条数据,一个MR任务要运行几小时,每天...

    延云YDB-运行程序v1.0.2_运行程序17

    YDB是我们自主研发的一个大型分布式索引系统。旨在为数据总量为万亿级别、每天千亿级别数据增量的项目提供近似实时的数据导入,并提供近似实时响应的多维查询与统计服务。 大索引技术 为什么要使用大索引?使用后会...

    php调试工具ydb5.2

    php在线调试工具,一个php扩展,适用于php5.2版本 md5: 638e7f30d2f4d25b5ce5128e39e597bf 具体文档介绍见 http://blog.csdn.net/micweaver/article/details/17891163

    YDB 165-2016 面向物联网的蜂窝窄带接入(NB-IoT) 无线网总体技术要求.pdf

    YDB 165-2016 面向物联网的蜂窝窄带接入(NB-IoT) 无线网总体技术要求 通信行业的参考标准,规范了通信物联网的蜂窝窄带接入(NB-IOT)网络的架构,规定了物理层,高层,及PRC层的技术要求及移动管理性,本标准使用...

    Java ORM框架和迁移工具的官方YDB方言.zip

    本资料“Java ORM框架和迁移工具的官方YDB方言”可能是关于如何在Java ORM工具中集成和使用YDB特性的详细指南。 1. **Java ORM框架介绍** - Hibernate:是最流行的ORM框架之一,提供了一种在Java应用程序中操作...

    YDB编程指南最新版笔记版

    《YDB编程指南》是一本专注于YDB编程的最新版参考书籍,旨在帮助开发者深入了解和掌握YDB这一特定编程语言的使用。YDB可能是一种专为处理大规模数据设计的数据库系统,因此它与大数据处理紧密相关。以下是根据提供的...

    yDB:基于英特尔 RTM 的高性能可扩展内存键值存储原型

    ###yDB:基于 RTM 的高性能、可扩展的内存键值存储团队成员:Zhiyuan Yang、Zhizhou Yang ###SUMMARY 我们基于英特尔 RTM(受限事务内存)和乐观并发控制 [2] 实现了一个名为 yDB 的内存键值存储。 yDB 在多核机器...

    ydb-nodejs-sdk:Yandex 数据库 Node.js SDK

    如何使用 安装依赖和编译库 npm ci npm run build:lib 设置环境变量 不应为特定安装设置的变量显式设置为空值,以便启动脚本正确检测您所针对的安装。 常见变量 export YDB_SDK_LOGLEVEL=debug ...export YDB_METADAT

    延云YDB安装与使用说明书

    延云YDB安装与使用说明书 超千亿规模的数据,数据库根本就运行不了,怎么办? 数据从产生到能够查询,要延迟一天才能看到,如何能做到分钟级延迟? 50台规模的hadoop集群,几亿条数据,一个MR任务要运行几小时,...

Global site tag (gtag.js) - Google Analytics