最近初学了下mongoDB,作为比较火的一个NoSQL数据库,确实比较强大,但是这几天学下来更多的感觉到的是学习、使用都很方便。
首先是初学者体验使用方便,直接下载(http://www.mongodb.org/downloads)解压,然后启一下服务便可使用:mongod --dbpath your_db_data_dir,启动以后默认端口27017, 默认http端口28017,可以通过http://localhost: 28017 查看基本信息。当然,如果你还没有下载的想法,可以直接在其官网上尝试Try The Online Shell,就可以使用其来做各种操作,当然online的功能较少。
其次,一改关系数据库的表模型,mongodb是一个以松散的集合形势呈现,这种 no shema让我感觉非常方便。从开发人员的角度看,mongodb中的每一个数据对象就是一个JSON,所有的操作(save,update,find etc.)都可以像操作JSON一样,当然mongodb数据是一种叫做BSON格式的,即Binary JSON:http://bsonspec.org/ 。例如:
将文档{ name:”abc”,age:12}插入到users集合:
db.users.insert ({name:”abc”,age:12})
修改文档,增加其emails属性:
db.users.update(
{name:"abc"},
{"$set": {emails:["abc@gmail.com","abc@163.com"]}}
)
查找所有users文档:
db.users.find();
查找age > 20的前5个:
db.users.find({
age: {“$gt”:20}
}).limit(5)
删除:db.users.delete({name:”abc”})
这些基本的操作不一一例举,包括像index的操作,统计函数等,总之,一切都是文档:查询表达式是文档、返回数据是文档、修改数据的新值是文档、index的操作也是文档形式等等。另外,诸如其支持的MAPREDUCE操作,只需在其规范内定义自己的map和reduce函数即可完成简单MR计算;使用GridFS规范来存储大文件。
最后的方便之处就是对很多开发语言的支持,PHP, Java, Python, Ruby, Perl。这里我就使用Morphia来做一个非常简单demo: 假设一千个店铺(store)分布在不同的地方(place),每个地方都有一个二维的坐标(x,y)用来表示其位置,我们可以很方便的查找到诸如 离***地方最近的***店铺。整个例子分三步:
1) 准备数据
2) 测试数据是否准备好
3) 查找店铺
使用jars: mongo-2.7.0.jar, morphia-0.98.jar
下面是两个model类:
@Entity(value="stores",noClassnameStored=true)
public class Store {
@Id
private ObjectId id;
private String name;
private String desc;
@Embedded
public Place place;
@Override
public String toString() {
return "Store [desc=" + desc + ", id=" + id + ", name=" +
name + ", place=" + place + "]";
}
public Store(){}
public Store(String name, String desc, Place place) {
this.name = name;
this.desc = desc;
this.place = place;
}
//省略getter,setters
}
@Embedded
public class Place {
private String name = "";
@Indexed(IndexDirection.GEO2D)
private double[] loc = null;
public Place(String name, double[] loc) {
this.name = name;
this.loc = loc;
}
public Place() {
}
@Override
public String toString() {
return "Place [loc=" + Arrays.toString(loc) + ", name=" + name + "]";
}
//省略getter,setters
}
因为morphia提供了BasicDao,所以这里就准备一个简单的Dao:
package morphia.dao;
import java.util.List;
import morphia.model.Place;
import morphia.model.Store;
import com.google.code.morphia.Datastore;
import com.google.code.morphia.dao.BasicDAO;
import com.google.code.morphia.query.Query;
public class StoreDao extends BasicDAO<Store, String> {
public StoreDao(Datastore ds) {
super(ds);
ds.ensureIndexes();
ds.ensureCaps();
}
/**
* 查找离 p 最近的5个店铺
* @param p
* @return
*/
public List<Store> findNearPlace(Place p) {
return ds.createQuery(Store.class).field("place.loc").near(p.getLoc()[0], p.getLoc()[1]).limit(5).asList();
}
/**
* 查找离 p 最近的5个肯德基店
* @param p
* @return
*/
public List<Store> findKFCNearPlace(Place p) {
return ds.createQuery(Store.class).filter("name", "肯德基").field("place.loc").near(p.getLoc()[0], p.getLoc()[1]).limit(5).asList();
}
/**
* 删除所有店铺
*/
public void deleteAllStore(){
Query<Store> q = ds.createQuery(Store.class);
ds.delete(q);
}
}
接下来就可以写测试类了:
package mongo.morphia.test;
import java.util.List;
import morphia.dao.PlaceDao;
import morphia.dao.StoreDao;
import morphia.model.Place;
import morphia.model.Store;
import com.google.code.morphia.Datastore;
import com.google.code.morphia.Morphia;
import com.mongodb.Mongo;
public class StoreDaoTest {
public static String[] STORE_TYPE = {"肯德基","麦当劳","必胜客","吉野家","蒸功夫"};
public static StoreDaoTest m = new StoreDaoTest();
static DaoHolder daoHolder = new DaoHolder();
//测试保存,准备一千家店铺的数据
public void testSave(){
long start = System.currentTimeMillis();
for( int i = 0; i < 1000; i++){
double x = Math.round(Math.random() * 10000)/100.0D;
double y = Math.round(Math.random() * 10000)/100.0D;
Place p = new Place("Place_"+x+"_"+y,new double[]{x,y});
Store s = new Store(STORE_TYPE[i%5],STORE_TYPE[i%5]+"@"+p.getName(),p);
daoHolder.storeDao.save(s);
}
System.out.println(System.currentTimeMillis() - start);
}
//测试删除
public void testDeleteAll(){
System.out.println("Before delete the number of stores is: " + daoHolder.storeDao.count());
daoHolder.storeDao.deleteAllStore();
System.out.println("After delete the number of stores is: " + daoHolder.storeDao.count());
}
//根据地理位置查找
public void testFindNearPlace(){
Place p = new Place("somewhere",new double[]{23.5,67.8});
System.out.println("Find 5 stores near "+ p.toString());
List<Store> list = daoHolder.storeDao.findNearPlace(p);
for( Store s : list)
System.out.println(s.toString());
System.out.println("Find 5 KFC stores near "+ p.toString());
list = daoHolder.storeDao.findKFCNearPlace(p);
for( Store s : list)
System.out.println(s.toString());
}
//查找所有store
public void testFindAll(){
long start = System.currentTimeMillis();
List<Store> list = daoHolder.storeDao.find().asList();
for( Store s : list)
System.out.println(s.toString());
System.out.println(System.currentTimeMillis() - start);
}
static class DaoHolder{
PlaceDao placeDao;
StoreDao storeDao;
public DaoHolder(){
try {
Mongo mongo = new Mongo("localhost",27017);
Morphia morphia = new Morphia();
Datastore ds = morphia.createDatastore(mongo, "testDB");
placeDao = new PlaceDao(ds);
storeDao = new StoreDao(ds);
} catch (Exception e) {
e.printStackTrace();
}
}
}
}
首先, 通过调用StoreDaoTest.m.testSave()保存一千家店铺,用来做数据准备。
其次,通过调用StoreDaoTest.m.testFindAll()查看数据是否ok,当然也可以通过shell窗口查看。
现在可以通过 StoreDaoTest.m.testFindNearPlace()来查找地方p附近的相关店铺了,在这个方法中,我查了两次,一次是查找离p[loc=[23.5, 67.8], name=somewhere]最近的任意五个店铺,dao中这样写:
ds.createQuery(Store.class).field("place.loc").near(p.getLoc()[0], p.getLoc()[1]).limit(5).asList();
第二次是查找离p[loc=[23.5, 67.8], name=somewhere]最近的五个肯德基店铺,dao中这样写:
ds.createQuery(Store.class).filter("name", "肯德基")
.field("place.loc").near(p.getLoc()[0], p.getLoc()[1]).limit(5).asList();
输出结果:
Find 5 stores near Place [loc=[23.5, 67.8], name=somewhere]
Store [desc=麦当劳@Place_24.42_67.77, id=4ef9cc2cec9dcb16b1b552d2, name=麦当劳, place=Place [loc=[24.42, 67.77], name=Place_24.42_67.77]]
Store [desc=蒸功夫@Place_24.32_70.0, id=4ef9cc2dec9dcb16b1b553b6, name=蒸功夫, place=Place [loc=[24.32, 70.0], name=Place_24.32_70.0]]
Store [desc=必胜客@Place_24.08_64.89, id=4ef9cc2dec9dcb16b1b5544f, name=必胜客, place=Place [loc=[24.08, 64.89], name=Place_24.08_64.89]]
Store [desc=肯德基@Place_21.05_65.88, id=4ef9cc2dec9dcb16b1b5539e, name=肯德基, place=Place [loc=[21.05, 65.88], name=Place_21.05_65.88]]
Store [desc=吉野家@Place_25.78_65.66, id=4ef9cc2cec9dcb16b1b551f3, name=吉野家, place=Place [loc=[25.78, 65.66], name=Place_25.78_65.66]]
Find 5 KFC stores near Place [loc=[23.5, 67.8], name=somewhere]
Store [desc=肯德基@Place_21.05_65.88, id=4ef9cc2dec9dcb16b1b5539e, name=肯德基, place=Place [loc=[21.05, 65.88], name=Place_21.05_65.88]]
Store [desc=肯德基@Place_21.13_74.42, id=4ef9cc2dec9dcb16b1b5550b, name=肯德基, place=Place [loc=[21.13, 74.42], name=Place_21.13_74.42]]
Store [desc=肯德基@Place_20.26_77.73, id=4ef9cc2cec9dcb16b1b55204, name=肯德基, place=Place [loc=[20.26, 77.73], name=Place_20.26_77.73]]
Store [desc=肯德基@Place_32.55_73.14, id=4ef9cc2cec9dcb16b1b552ae, name=肯德基, place=Place [loc=[32.55, 73.14], name=Place_32.55_73.14]]
Store [desc=肯德基@Place_19.01_77.68, id=4ef9cc2cec9dcb16b1b55209, name=肯德基, place=Place [loc=[19.01, 77.68], name=Place_19.01_77.68]]
最后当然也可以通过StoreDaoTest.m.testDeleteAll() 删除所有测试数据。例子很简单,是我这个礼拜学习的一个小结吧,不罗嗦了。当然很多mongodb的操作命令就不记录了,有用到了再查吧,接下来会去学习一下spring data整合mongodb。
分享到:
相关推荐
原生js图片圆形排列按钮控制3D旋转切换插件.zip
内含二维数组与三维数组,分别为list2nd,list3rd
原生js颜色随机生成9x9乘法表代码.zip
原生js实现图片叠加滚动切换代码.zip
【Academic tailor】学术小裁缝必备知识点:全局注意力机制(GAM) 注意力机制是深度学习中的重要技术,尤其在序列到序列(sequence-to-sequence)任务中广泛应用,例如机器翻译、文本摘要和问答系统等。这一机制由 Bahdanau 等人在其论文《Neural Machine Translation by Jointly Learning to Align and Translate》中首次提出。以下将详细介绍这一机制的背景、核心原理及相关公式。 全局注意力机制(Global Attention Mechanism, GAM)由 《Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions》提出,是一篇针对计算机视觉任务提出的方法。这篇文章聚焦于增强深度神经网络中通道和空间维度之间的交互,以提高分类任务的性能。与最早由 Bahdanau 等人提出的用于序列到序列任务的注意力机制 不同,这篇文章的重点是针对图像分类任务,并未专注于序
本项目在开发和设计过程中涉及到原理和技术有: B/S、java技术和MySQL数据库等;此文将按以下章节进行开发设计; 第一章绪论;剖析项目背景,说明研究的内容。 第二章开发技术;系统主要使用了java技术, b/s模式和myspl数据库,并对此做了介绍。 第三章系统分析;包罗了系统总体结构、对系统的性能、功能、流程图进行了分析。 第四章系统设计;对软件功能模块和数据库进行详细设计。 第五章系统总体设计;对系统管理员和用户的功能进行描述, 第六章对系统进行测试, 第七章总结心得;在论文最后结束章节总结了开发这个系统和撰写论文时候自己的总结、感想,包括致谢。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
镗夹具总工艺图
原生js树叶数字时钟代码.rar
近代非线性回归分析-韦博成1989
内容概要:本文详细介绍了用 Rust 语言实现冒泡排序算法的具体步骤,以及通过设置标志位来优化算法性能的方法。示例代码包括了函数定义、内外层循环逻辑、标志位的应用,并在主函数中展示了如何调用 bubble_sort 函数并显示排序前后的数组。 适合人群:具有基本 Rust 编程基础的学习者和开发者。 使用场景及目标:适用于想要深入了解 Rust 中冒泡排序实现方式及其优化技巧的技术人员。通过本篇文章,能够掌握 Rust 基本语法以及算法优化的基本思想。 阅读建议:除了仔细阅读和理解每一部分的内容外,还可以尝试修改代码,改变数据集大小,进一步探索冒泡排序的时间复杂度和优化效果。此外,在实际应用时也可以考虑引入并发或其他高级特性以提升性能。
培训课件 -安全隐患分类与排查治理.pptx
中国各地级市的海拔标准差数据集提供了298个地级市的海拔变异性信息。海拔标准差是衡量某地区海拔高度分布离散程度的统计指标,它通过计算各测量点海拔与平均海拔之间的差异来得出。这一数据对于评估地形起伏对网络基础设施建设的影响尤为重要,因为地形的起伏度不仅会增加建设成本,还会影响信号质量。此外,由于地形起伏度是自然地理变量,它与经济社会因素关联性较小,因此被用作“宽带中国”试点政策的工具变量,以研究网络基础设施建设对经济的影响。数据集中包含了行政区划代码、地区、所属省份、所属地域、长江经济带、经度、纬度以及海拔标准差等关键指标。这些数据来源于地理空间数据云,并以Excel和dta格式提供,方便研究者进行进一步的分析和研究。
YOLO算法的原理与实现
视网膜病变是糖尿病和高血压的主要微血管并发症。如果不及时治疗,可能会导致失明。据估计,印度三分之一的成年人患有糖尿病或高血压,他们未来患视网膜病变的风险很高。我们研究的目的是检查糖化血红蛋白 (HbA1c)、血压 (BP) 读数和脂质水平与视网膜病变的相关性。我们的主要假设是,血糖控制不佳(表现为高 HbA1c 水平、高血压和异常脂质水平)会导致视网膜病变风险增加。我们使用眼底照相机筛查了 119 名印度患者的视网膜病变,并获取了他们最近的血压、HbA1c 和血脂谱值。然后,我们应用 XGBoost 机器学习算法根据他们的实验室值预测是否存在视网膜病变。我们能够根据这些关键生物标志物高精度地预测视网膜病变。此外,使用 Shapely Additive Explanations (SHAP),我们确定了对模型最重要的两个特征,即年龄和 HbA1c。这表明血糖控制不佳的老年患者更有可能出现视网膜病变。因此,这些高风险人群可以成为早期筛查和干预计划的目标,以防止视网膜病变发展为失明。
在强化学习(RL)领域,如何稳定地优化策略是一个核心挑战。2015 年,由 John Schulman 等人提出的信赖域策略优化(Trust Region Policy Optimization, TRPO)算法为这一问题提供了优雅的解决方案。TRPO 通过限制策略更新的幅度,避免了策略更新过大导致的不稳定问题,是强化学习中经典的策略优化方法之一。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
这组数据涵盖了1999至2020年间中国各地区普通小学毕业生的数量。它为我们提供了一个深入了解中国教育领域中普通小学阶段教育水平和教育资源分配情况的窗口。通过分析这些数据,可以为制定科学合理的教育政策提供依据,同时,通过比较不同城市的普通小学毕业生数,也能为城市规划和劳动力市场调查提供参考。数据来源于中国区域统计年鉴和中国各省市统计年鉴,包含了8472个样本,以面板数据的形式呈现。这些数据对于掌握中国教育态势具有重要的参考价值。
原生js制作拖拽排列排序代码.zip
PixPin截图工具,非常好用的一款截图工具