`

morphia与spring的整合

 
阅读更多

转自: http://www.blogjava.net/watchzerg/archive/2012/09/21/388291.html

 

 

最近研究mongoDB的各种pojo-mapping框架,中意的就两个:morphia和spring-data-mongodb。
本来想着spring-data-mongodb与spring的结合更紧密些,但悲剧的是其要求spring3.0.x以上版本,与生产环境不符。查了查stackoverflow,大家评价morphia更老牌更稳定一些,于是就用这个了。
研究了一番,果然与spring整合起来很麻烦。
首先看stackoverflow上的帖子,提问者跟我的想法完全一样:在spring里,我没有现成的办法调用ensureIndexes()这样的方法啊,肿么办?
http://stackoverflow.com/questions/5365315/using-morphia-with-spring
回答者给出的两个链接我也看了,真心没啥收获。
后来又搜到一篇帖子:
http://topmanopensource.iteye.com/blog/1449889
很粗略的看了一下,还不错,总之都得自己实现那些工厂类,完成与spring的集成。
看来网上这方面的需求还不少,甚至在google-code上找到一个项目叫“spring-morphia”,专门来解决这个问题:
http://code.google.com/p/spring-morphia/
貌似荒废已久,没有完成的可供下载的jar包,但是在其svn上,可以看到一些可供我们参考的类:
http://code.google.com/p/spring-morphia/source/browse/trunk/spring-morphia/src/main/java/com/so/smorphia/
本文基本上就是根据上面两个连接的思路写的,自己总结一下而已,不做过多解释了,代码里有注释。

首先我们需要一个生成和配置mongodb的工厂类:

 1  public  class  MongoFactoryBean extends  AbstractFactoryBean<Mongo> {
 2  
 3      //  表示服务器列表(主从复制或者分片)的字符串数组
 4      private  String[] serverStrings;
 5      //  mongoDB配置对象
 6      private  MongoOptions mongoOptions;
 7      //  是否主从分离(读取从库),默认读写都在主库
 8      private  boolean  readSecondary = false ;
 9      //  设定写策略(出错时是否抛异常),默认采用SAFE模式(需要抛异常)
10      private  WriteConcern writeConcern = WriteConcern.SAFE;
11  
12      @Override
13      public  Class<?> getObjectType() {
14          return  Mongo.class ;
15      }
16  
17      @Override
18      protected  Mongo createInstance() throws  Exception {
19          Mongo mongo = initMongo();
20          
21          //  设定主从分离
22          if  (readSecondary) {
23              mongo.setReadPreference(ReadPreference.secondaryPreferred());
24          }
25  
26          //  设定写策略
27          mongo.setWriteConcern(writeConcern);
28          return  mongo;
29      }
30      
31      /**
32       * 初始化mongo实例
33       *  @return
34       *  @throws  Exception
35        */
36      private  Mongo initMongo() throws  Exception {
37          //  根据条件创建Mongo实例
38          Mongo mongo = null ;
39          List<ServerAddress> serverList = getServerList();
40  
41          if  (serverList.size() == 0) {
42              mongo = new  Mongo();
43          }else  if (serverList.size() == 1){
44              if  (mongoOptions != null ) {
45                  mongo = new  Mongo(serverList.get(0), mongoOptions);
46              }else {
47                  mongo = new  Mongo(serverList.get(0));
48              }
49          }else {
50              if  (mongoOptions != null ) {
51                  mongo = new  Mongo(serverList, mongoOptions);
52              }else {
53                  mongo = new  Mongo(serverList);
54              }
55          }
56          return  mongo;
57      }
58      
59      
60      /**
61       * 根据服务器字符串列表,解析出服务器对象列表
62       * <p>
63       * 
64       * @Title: getServerList
65       *         </p>
66       * 
67       *  @return
68       *  @throws  Exception
69        */
70      private  List<ServerAddress> getServerList() throws  Exception {
71          List<ServerAddress> serverList = new  ArrayList<ServerAddress>();
72          try  {
73              for  (String serverString : serverStrings) {
74                  String[] temp = serverString.split(":");
75                  String host = temp[0];
76                  if  (temp.length > 2) {
77                      throw  new  IllegalArgumentException(
78                              "Invalid server address string: " + serverString);
79                  }
80                  if  (temp.length == 2) {
81                      serverList.add(new  ServerAddress(host, Integer
82                              .parseInt(temp[1])));
83                  } else  {
84                      serverList.add(new  ServerAddress(host));
85                  }
86              }
87              return  serverList;
88          } catch  (Exception e) {
89              throw  new  Exception(
90                      "Error while converting serverString to ServerAddressList",
91                      e);
92          }
93      }
94  
95      /*  ------------------- setters ---------------------  */
96  }

其次我们需要一个产生和配置morphia对象的工厂类:

 1  public  class  MorphiaFactoryBean extends  AbstractFactoryBean<Morphia> {
 2      /**
 3       * 要扫描并映射的包
 4        */
 5      private  String[] mapPackages;  
 6      
 7      /**
 8       * 要映射的类
 9        */
10      private  String[] mapClasses;  
11      
12      /**
13       * 扫描包时,是否忽略不映射的类
14       * 这里按照Morphia的原始定义,默认设为false
15        */
16      private  boolean  ignoreInvalidClasses;
17      
18      @Override
19      protected  Morphia createInstance() throws  Exception {
20          Morphia m = new  Morphia();
21          if  (mapPackages != null ) {
22              for  (String packageName : mapPackages) {
23                  m.mapPackage(packageName, ignoreInvalidClasses);
24              }
25          }
26          if  (mapClasses != null ) {  
27              for  (String entityClass : mapClasses) {
28                  m.map(Class.forName(entityClass));
29              }
30          }
31          return  m;
32      }
33  
34      @Override
35      public  Class<?> getObjectType() {
36          return  Morphia.class ;
37      }
38      
39      /* ----------------------setters----------------------- */
40  }

最后我们还需要一个产生和配置Datastore的工厂类:

 1  public  class  DatastoreFactoryBean extends  AbstractFactoryBean<Datastore> {
 2      
 3      private  Morphia morphia;    // morphia实例,最好是单例
 4      private  Mongo mongo;    // mongo实例,最好是单例
 5      private  String dbName;    // 数据库名
 6      private  String username;    // 用户名,可为空
 7      private  String password;    // 密码,可为空
 8      private  boolean  toEnsureIndexes=false ;    // 是否确认索引存在,默认false
 9      private  boolean  toEnsureCaps=false ;    // 是否确认caps存在,默认false
10      
11  
12      @Override
13      protected  Datastore createInstance() throws  Exception {
14          // 这里的username和password可以为null,morphia对象会去处理
15          Datastore ds = morphia.createDatastore(mongo, dbName, username,
16                  password==null ?null :password.toCharArray());
17          if (toEnsureIndexes){
18              ds.ensureIndexes();
19          }
20          if (toEnsureCaps){
21              ds.ensureCaps();
22          }
23          return  ds;
24      }
25  
26      @Override
27      public  Class<?> getObjectType() {
28          return  Datastore.class ;
29      }
30  
31      @Override
32      public  void  afterPropertiesSet() throws  Exception {
33          super .afterPropertiesSet();
34          if  (mongo == null ) {
35              throw  new  IllegalStateException("mongo is not set");
36          }
37          if  (morphia == null ) {
38              throw  new  IllegalStateException("morphia is not set");
39          }
40      }
41      
42      /* ----------------------setters----------------------- */
43  }

我们来仿照morphia文档,写两个测试的POJO:

 1  @Entity
 2  public  class  Hotel {
 3      @Id private  ObjectId id;
 4      
 5      private  String name;
 6      private  int  stars;
 7      
 8      @Embedded
 9      private  Address address;    
10      
11      /* -----------gettters & setters---------- */
12  }

1  @Embedded
2  public  class  Address {
3      private  String street;
4      private  String city;
5      private  String postCode;
6      private  String country;
7      /* -----------gettters & setters---------- */
8  }

还需要一个为测试POJO专门服务的DAO,这里继承morphia里的BasicDAO:

1  public  class  HotelDAO extends  BasicDAO<Hotel, ObjectId> {
2  
3      protected  HotelDAO(Datastore ds) {
4          super (ds);
5      }
6      
7      /*  ----------------以下是自定义的数据查询方法(finder)-----------------  */
8  }

最后是spring的XML文件:

  1  <? xml version="1.0" encoding="UTF-8" ?>   
  2  < beans  xmlns ="http://www.springframework.org/schema/beans"   
  3      xmlns:xsi ="http://www.w3.org/2001/XMLSchema-instance"  xmlns:p ="http://www.springframework.org/schema/p"  xmlns:context ="http://www.springframework.org/schema/context"  
  4      xsi:schemaLocation ="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans-3.1.xsd 
  5      http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context-3.1.xsd" >   
  6      
  7      <!--  配置文件  -->
  8      < context:property-placeholder  location ="classpath:config.properties"   />
  9      
 10      <!--  mongoDB的配置对象  -->
 11      < bean  id ="mongoOptions"  class ="com.mongodb.MongoOptions" >
 12          <!--  服务器是否自动重连,默认为false  -->
 13          < property  name ="autoConnectRetry"  value ="false"   />
 14          <!--  对同一个服务器尝试重连的时间(毫秒),设为0时默认使用15秒  -->
 15          < property  name ="maxAutoConnectRetryTime"  value ="0"   />
 16          <!--  与每个主机的连接数,默认为10  -->
 17          < property  name ="connectionsPerHost"  value ="10"   />
 18          <!--  连接超时时间(毫秒),默认为10000  -->
 19          < property  name ="connectTimeout"  value ="10000"   />
 20          <!--  是否创建一个finalize方法,以便在客户端没有关闭DBCursor的实例时,清理掉它。默认为true  -->
 21          < property  name ="cursorFinalizerEnabled"  value ="true"   />
 22          <!--  线程等待连接可用的最大时间(毫秒),默认为120000  -->
 23          < property  name ="maxWaitTime"  value ="120000"   />
 24          <!--  可等待线程倍数,默认为5.例如connectionsPerHost最大允许10个连接,则10*5=50个线程可以等待,更多的线程将直接抛异常  -->
 25          < property  name ="threadsAllowedToBlockForConnectionMultiplier"  value ="5"   />
 26          <!--  socket读写时超时时间(毫秒),默认为0,不超时  -->
 27          < property  name ="socketTimeout"  value ="0"   />
 28          <!--  是socket连接在防火墙上保持活动的特性,默认为false  -->
 29          < property  name ="socketKeepAlive"  value ="false"   />
 30          <!--  对应全局的WriteConcern.SAFE,默认为false  -->
 31          < property  name ="safe"  value ="true"   />
 32          <!--  对应全局的WriteConcern中的w,默认为0  -->
 33          < property  name ="w"  value ="0"   />
 34          <!--  对应全局的WriteConcern中的wtimeout,默认为0  -->
 35          < property  name ="wtimeout"  value ="0"   />
 36          <!--  对应全局的WriteConcern.FSYNC_SAFE,如果为真,每次写入要等待写入磁盘,默认为false  -->
 37          < property  name ="fsync"  value ="false"   />
 38          <!--  对应全局的WriteConcern.JOURNAL_SAFE,如果为真,每次写入要等待日志文件写入磁盘,默认为false  -->
 39          < property  name ="j"  value ="false"   />
 40      </ bean >
 41      
 42      <!--  使用工厂创建mongo实例  -->
 43      < bean  id ="mongo"  class ="me.watchzerg.test.morphia.spring.MongoFactoryBean" >
 44          <!--  mongoDB的配置对象  -->
 45          < property  name ="mongoOptions"  ref ="mongoOptions" />
 46          
 47          <!--  是否主从分离(读取从库),默认为false,读写都在主库  -->
 48          < property  name ="readSecondary"  value ="false" />
 49          
 50          <!--  设定写策略,默认为WriteConcern.SAFE,优先级高于mongoOptions中的safe  -->
 51          < property  name ="writeConcern"  value ="SAFE" />
 52          
 53          <!--  设定服务器列表,默认为localhost:27017  -->
 54          < property  name ="serverStrings" >
 55              < array >
 56                  < value > ${mongoDB.server}</ value >
 57              </ array >
 58          </ property >
 59      </ bean >
 60      
 61      
 62      <!--  使用工厂创建morphia实例,同时完成类映射操作  -->
 63      < bean  id ="morphia"  class ="me.watchzerg.test.morphia.spring.MorphiaFactoryBean"   >
 64          <!--  指定要扫描的POJO包路径  -->
 65          < property  name ="mapPackages" >
 66              < array >
 67                  < value > me.watchzerg.test.morphia.pojo</ value >
 68              </ array >
 69          </ property >
 70          
 71          <!--  指定要映射的类  -->
 72          <!--  <property name="mapClasses">
 73              <array>
 74                  <value>me.watchzerg.test.morphia.pojo.Hotel</value>
 75                  <value>me.watchzerg.test.morphia.pojo.Address</value>
 76              </array>
 77          </property>  -->
 78          
 79          <!--  扫描包时是否忽略不可用的类,默认为false  -->
 80          <!--  <property name="ignoreInvalidClasses" value="false"/>  -->
 81      </ bean >
 82      
 83      <!--  使用工厂创建datastore,同时完成index和caps的确认操作  -->
 84      < bean  id ="datastore"  class ="me.watchzerg.test.morphia.spring.DatastoreFactoryBean"   >
 85          < property  name ="morphia"  ref ="morphia" />
 86          < property  name ="mongo"  ref ="mongo" />
 87          
 88          <!--  collection的名称  -->
 89          < property  name ="dbName"  value ="${mongoDB.dbName}" />
 90          
 91          <!--  用户名和密码可以为空  -->
 92          <!--  <property name="username" value="my_username"/>
 93          <property name="password" value="my_password"/>  -->
 94          
 95          <!--  是否进行index和caps的确认操作,默认为flase  -->
 96          < property  name ="toEnsureIndexes"  value ="true" />
 97          < property  name ="toEnsureCaps"  value ="true" />
 98      </ bean >
 99      
100      <!--  ===============以下是具体DAO的实现=====================  -->
101      
102      < bean  id ="hotelDAO"  class ="me.watchzerg.test.morphia.dao.impl.HotelDAO" >
103          < constructor-arg  ref ="datastore" />
104      </ bean >
105      
106  </ beans >  

最后写一个测试类看看我们的成果:

  1  public  class  MorphiaTest {
  2      private  static  HotelDAO hotelDAO;
  3  
  4      /**
  5       * 测试Morphia的DAO层
  6       * 
  7       *  @param  args
  8       *  @throws  Exception
  9        */
 10      public  static  void  main(String[] args) throws  Exception {
 11          //  初始化DAO
 12          initDAO();
 13  
 14          //  插入测试
 15          saveTest();
 16  
 17          //  更新测试
 18           //  updateTest();
 19  
 20           //  删除测试
 21           //  deleteTest();
 22  
 23           //  查询测试
 24           //  queryHotel();
 25  
 26          System.out.println("done!");
 27      }
 28  
 29      /**
 30       * 初始化DAO
 31       * <p>
 32       * @Title: initDAO
 33       * </p>
 34        */
 35      private  static  void  initDAO() {
 36          ApplicationContext context = new  ClassPathXmlApplicationContext(
 37                  "config.xml");
 38          hotelDAO = (HotelDAO) context.getBean("hotelDAO");
 39      }
 40  
 41      /**
 42       * 生成指定个数的hotelList
 43       * <p>
 44       * @Title: getHotelList
 45       * </p>
 46       * 
 47       *  @param  num
 48       *  @return
 49        */
 50      private  static  List<Hotel> getHotelList(int  num) {
 51          List<Hotel> list = new  ArrayList<Hotel>();
 52          for  (int  i = 0; i < num; i++) {
 53              Hotel hotel = new  Hotel();
 54              hotel.setName("编号为[" + i + "]的旅店");
 55              hotel.setStars(i % 10);
 56              Address address = new  Address();
 57              address.setCountry("中国");
 58              address.setCity("北京");
 59              address.setStreet("上帝南路");
 60              address.setPostCode("10000" + (i % 10));
 61              hotel.setAddress(address);
 62              list.add(hotel);
 63          }
 64          return  list;
 65      }
 66  
 67      /**
 68       * 将hotelList插入数据库
 69       * <p>
 70       * @Title: saveHotelList
 71       * </p>
 72       * 
 73       *  @param  hotelDAO
 74       *  @param  hotelList
 75        */
 76      private  static  void  saveTest() {
 77          List<Hotel> hotelList = getHotelList(100);
 78          for  (Hotel hotel : hotelList) {
 79              //  Key<Hotel> key=hotelDAO.save(hotel,WriteConcern.SAFE);
 80              Key<Hotel> key = hotelDAO.save(hotel);
 81              System.out.println("id为[" + key.getId() + "]的记录已被插入");
 82          }
 83      }
 84  
 85      /**
 86       * 更新操作测试
 87       * <p>
 88       * @Title: updateTest
 89       * </p>
 90       * 
 91       *  @throws  Exception
 92        */
 93      private  static  void  updateTest() throws  Exception {
 94          // 生成查询条件
 95          Query<Hotel> q = hotelDAO.createQuery().field("stars")
 96                  .greaterThanOrEq(9);
 97          // 生成更新操作
 98          UpdateOperations<Hotel> ops = hotelDAO.createUpdateOperations()
 99                  .set("address.city", "shanghai").inc("stars");
100          //  UpdateResults<Hotel> ur=hotelDAO.update(q, ops);
101          UpdateResults<Hotel> ur = hotelDAO.updateFirst(q, ops);
102          if  (ur.getHadError()) {
103              System.out.println(ur.getError());
104              throw  new  Exception("更新时发生错误");
105          }
106          if  (ur.getUpdatedExisting()) {
107              System.out.println("更新成功,更新条数为[" + ur.getUpdatedCount()
108                      + "],插入条数为[" + ur.getInsertedCount() + "]");
109          } else  {
110              System.out.println("没有记录符合更新条件");
111          }
112      }
113  
114      /**
115       * 删除操作测试
116       * <p>
117       * @Title: deleteTest
118       * </p>
119        */
120      private  static  void  deleteTest() {
121          ObjectId id = hotelDAO.findIds().get(0);
122          hotelDAO.deleteById(id);
123  
124          Query<Hotel> q = hotelDAO.createQuery().field("stars")
125                  .greaterThanOrEq(100);
126          hotelDAO.deleteByQuery(q);
127      }
128  
129      /**
130       * 查询测试
131       * <p>
132       * @Title: queryHotel
133       * </p>
134        */
135      private  static  void  queryHotel() {
136          //  显示所有记录
137          System.out.println("\nhotelDAO.find()=");
138          for  (Hotel hotel : hotelDAO.find()) {
139              System.out.println(hotel);
140          }
141  
142          //  统计star大于等于9的数目
143          System.out
144                  .println("\nhotelDAO.count(hotelDAO.createQuery().field(\"stars\").greaterThanOrEq(9))="
145                          + hotelDAO.count(hotelDAO.createQuery().field("stars")
146                                  .greaterThanOrEq(9)));
147  
148          //  显示符合条件的记录ID
149          List<ObjectId> ids = hotelDAO.findIds("stars", 8);
150          System.out.println("\nhotelDAO.findIds(\"stars\", 8)=");
151          for  (ObjectId id : ids) {
152              System.out.println(id);
153          }
154      }
155  
156  }

大功告成~
分享到:
评论

相关推荐

    spring MVC morphia mongo 整合的例子

    6. **Spring整合**:Spring MVC和Morphia可以通过Spring的依赖注入(DI)进行整合,使你能在控制器中直接注入`Datastore`,简化代码并提高可测试性。 7. **RESTful API设计**:示例可能展示了如何使用Spring MVC...

    Spring整合MongoDB基于Maven

    **Spring整合MongoDB基于Maven** 在现代Java开发中,Spring框架与MongoDB数据库的集成是常见的选择,尤其是在处理非关系型数据时。MongoDB是一个高性能、无模式的文档型数据库,而Spring提供了强大的框架支持,使得...

    morphia-example-1:Java中使用Morphia ODM和Spring的示例项目

    "在此处找到对源的解释:" 这可能指的是该项目提供了详细的代码注释或者配套的文档,以帮助开发者理解和学习Morphia的用法,以及如何在实际项目中实现Spring和Morphia的整合。 **标签解析:** - **java** - 项目是...

    maven(jersey+redis+mongodb+spring)集成

    Spring框架在此中起到整合和管理这些组件的作用,同时提供服务注册、发现和微服务架构的支持。 综上所述,"maven(jersey+redis+mongodb+spring)集成"是一个复杂的Java开发环境,它利用了各种强大的工具和技术来构建...

    毕业设计选题 -未来生鲜运输车设计.pptx

    毕业设计选题 -未来生鲜运输车设计.pptx

    基于樽海鞘算法优化的极限学习机回归预测及其与BP、GRNN、ELM的性能对比研究

    内容概要:本文详细探讨了基于樽海鞘算法(SSA)优化的极限学习机(ELM)在回归预测任务中的应用,并与传统的BP神经网络、广义回归神经网络(GRNN)以及未优化的ELM进行了性能对比。首先介绍了ELM的基本原理,即通过随机生成输入层与隐藏层之间的连接权重及阈值,仅需计算输出权重即可快速完成训练。接着阐述了SSA的工作机制,利用樽海鞘群体觅食行为优化ELM的输入权重和隐藏层阈值,从而提高模型性能。随后分别给出了BP、GRNN、ELM和SSA-ELM的具体实现代码,并通过波士顿房价数据集和其他工业数据集验证了各模型的表现。结果显示,SSA-ELM在预测精度方面显著优于其他三种方法,尽管其训练时间较长,但在实际应用中仍具有明显优势。 适合人群:对机器学习尤其是回归预测感兴趣的科研人员和技术开发者,特别是那些希望深入了解ELM及其优化方法的人。 使用场景及目标:适用于需要高效、高精度回归预测的应用场景,如金融建模、工业数据分析等。主要目标是提供一种更为有效的回归预测解决方案,尤其是在处理大规模数据集时能够保持较高的预测精度。 其他说明:文中提供了详细的代码示例和性能对比图表,帮助读者更好地理解和复现实验结果。同时提醒使用者注意SSA参数的选择对模型性能的影响,建议进行参数敏感性分析以获得最佳效果。

    2025年中国生成式AI大会PPT(4-1)

    2025年中国生成式AI大会PPT(4-1)

    无刷直流电机双闭环调速系统的Simulink建模与参数优化

    内容概要:本文详细介绍了基于Simulink平台构建无刷直流电机(BLDC)双闭环调速系统的全过程。首先阐述了双闭环控制系统的基本架构,即外层速度环和内层电流环的工作原理及其相互关系。接着深入探讨了PWM生成模块的设计,特别是占空比计算方法的选择以及三角波频率的设定。文中还提供了详细的电机参数设置指导,如转动惯量、电感、电阻等,并强调了参数选择对系统性能的影响。此外,针对PI控制器的参数整定给出了具体的公式和经验值,同时分享了一些实用的调试技巧,如避免转速超调、处理启动抖动等问题的方法。最后,通过仿真实验展示了系统的稳定性和鲁棒性,验证了所提出方法的有效性。 适用人群:从事电机控制研究的技术人员、自动化工程领域的研究生及科研工作者。 使用场景及目标:适用于需要深入了解和掌握无刷直流电机双闭环调速系统设计与优化的人群。主要目标是帮助读者学会利用Simulink进行BLDC电机控制系统的建模、仿真和参数优化,从而提高系统的稳定性和响应速度。 其他说明:文章不仅提供了理论知识,还包括了许多实践经验和技术细节,有助于读者更好地理解和应用相关技术。

    西门子S7-1200 PLC与施耐德变频器Modbus通讯实现及调试技巧

    内容概要:本文详细介绍了西门子S7-1200 PLC与施耐德ATV310/312变频器通过Modbus RTU进行通讯的具体实现步骤和调试技巧。主要内容涵盖硬件接线、通讯参数配置、控制启停、设定频率、读取运行参数的方法以及常见的调试问题及其解决方案。文中提供了具体的代码示例,帮助读者理解和实施通讯程序。此外,还强调了注意事项,如地址偏移量、数据格式转换和超时匹配等。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是那些需要将西门子PLC与施耐德变频器进行集成的工作人员。 使用场景及目标:适用于需要通过Modbus RTU协议实现PLC与变频器通讯的工程项目。目标是确保通讯稳定可靠,掌握解决常见问题的方法,提高调试效率。 其他说明:文中提到的实际案例和调试经验有助于读者避免常见错误,快速定位并解决问题。建议读者在实践中结合提供的代码示例和调试工具进行操作。

    基于FPGA的Verilog实现IIC主从机驱动及其应用

    内容概要:本文详细介绍了如何使用Verilog在FPGA上实现IIC(Inter-Integrated Circuit)主从机驱动。主要内容包括从机和主机的设计,特别是状态机的实现、寄存器读取、时钟分频策略、SDA线的三态控制等关键技术。文中还提供了详细的代码片段,展示了从机地址匹配逻辑、主机时钟生成逻辑、顶层模块的连接方法以及仿真实验的具体步骤。此外,文章讨论了一些常见的调试问题,如总线竞争、时序不匹配等,并给出了相应的解决方案。 适合人群:具备一定FPGA开发基础的技术人员,尤其是对IIC协议感兴趣的嵌入式系统开发者。 使用场景及目标:适用于需要在FPGA平台上实现高效、可靠的IIC通信的应用场景。主要目标是帮助读者掌握IIC协议的工作原理,能够独立完成IIC主从机系统的开发和调试。 其他说明:文章不仅提供了理论讲解,还包括了大量的实战经验和代码实例,有助于读者更好地理解和应用所学知识。同时,文章还提供了一个思考题,引导读者进一步探索多主设备仲裁机制的设计思路。

    C#开发的拖拽式Halcon可视化抓边抓圆控件,提升机器视觉测量效率

    内容概要:本文介绍了一款基于C#开发的拖拽式Halcon可视化抓边、抓圆控件,旨在简化机器视觉项目中的测量任务。该控件通过拖拽操作即可快速生成测量区域,自动完成边缘坐标提取,并提供实时反馈。文中详细描述了控件的工作原理和技术细节,如坐标系转换、卡尺生成、边缘检测算法封装以及动态参数调试等功能。此外,还讨论了一些常见问题及其解决方案,如坐标系差异、内存管理等。 适合人群:从事机器视觉开发的技术人员,尤其是熟悉C#和Halcon的开发者。 使用场景及目标:适用于需要频繁进行边缘和圆形特征测量的工业自动化项目,能够显著提高测量效率并减少编码工作量。主要目标是将复杂的测量任务转化为简单的拖拽操作,使非专业人员也能轻松完成测量配置。 其他说明:该控件已开源发布在GitHub上,提供了完整的源代码和详细的使用指南。未来计划扩展更多高级功能,如自动路径规划和亚像素级齿轮齿距检测等。

    西门子200Smart与维纶触摸屏在疫苗车间控制系统的应用:配液、发酵、纯化及CIP清洗工艺详解

    内容概要:本文详细介绍了西门子200Smart PLC与维纶触摸屏在某疫苗车间控制系统的具体应用,涵盖配液、发酵、纯化及CIP清洗四个主要工艺环节。文中不仅展示了具体的编程代码和技术细节,还分享了许多实战经验和调试技巧。例如,在配液罐中,通过模拟量处理确保温度和液位的精确控制;发酵罐部分,着重讨论了PID参数整定和USS通讯控制变频器的方法;纯化过程中,强调了双PID串级控制的应用;CIP清洗环节,则涉及复杂的定时器逻辑和阀门联锁机制。此外,文章还提到了一些常见的陷阱及其解决方案,如通讯干扰、状态机切换等问题。 适合人群:具有一定PLC编程基础的技术人员,尤其是从事工业自动化领域的工程师。 使用场景及目标:适用于需要深入了解PLC与触摸屏集成控制系统的工程师,帮助他们在实际项目中更好地理解和应用相关技术和方法,提高系统的稳定性和可靠性。 其他说明:文章提供了大量实战经验和代码片段,有助于读者快速掌握关键技术点,并避免常见错误。同时,文中提到的一些优化措施和调试技巧对提升系统性能非常有帮助。

    计算机网络结课设计:通过思科Cisco进行中小型校园网搭建

    计算机网络课程的结课设计是使用思科模拟器搭建一个中小型校园网,当时花了几天时间查阅相关博客总算是做出来了,现在免费上传CSDN,希望小伙伴们能给博客一套三连支持

    芋道(yudao)开发技术文档

    《芋道开发指南文档-2023-10-27更新》是针对软件开发者和IT专业人士的一份详尽的资源集合,旨在提供最新的开发实践、范例代码和最佳策略。这份2023年10月27日更新的文档集,包含了丰富的模板和素材,帮助开发者在日常工作中提高效率,保证项目的顺利进行。 让我们深入探讨这份文档的可能内容。"芋道"可能是一个开源项目或一个专业的技术社区,其开发指南涵盖了多个方面,例如: 1. **编程语言指南**:可能包括Java、Python、JavaScript、C++等主流语言的编码规范、最佳实践以及常见问题的解决方案。 2. **框架与库的应用**:可能会讲解React、Vue、Angular等前端框架,以及Django、Spring Boot等后端框架的使用技巧和常见应用场景。 3. **数据库管理**:涵盖了SQL语言的基本操作,数据库设计原则,以及如何高效使用MySQL、PostgreSQL、MongoDB等数据库系统。 4. **版本控制**:详细介绍了Git的工作流程,分支管理策略,以及与其他开发工具(如Visual Studio Code、IntelliJ IDEA)的集成。 5. **持续集成与持续部署(CI/CD)**:包括Jenkins、Travis CI、GitHub Actions等工具的配置和使用,以实现自动化测试和部署。 6. **云服务与容器化**:可能涉及AWS、Azure、Google Cloud Platform等云计算平台的使用,以及Docker和Kubernetes的容器化部署实践。 7. **API设计与测试**:讲解RESTful API的设计原则,Swagger的使用,以及Postman等工具进行API测试的方法。 8. **安全性与隐私保护**:涵盖OAuth、JWT认证机制,HTTPS安全通信,以及防止SQL注入、

    基于信息间隙决策的综合能源系统优化调度模型及其应用

    内容概要:本文介绍了一种先进的综合能源系统优化调度模型,该模型将风电、光伏、光热发电等新能源与燃气轮机、燃气锅炉等传统能源设备相结合,利用信息间隙决策(IGDT)处理不确定性。模型中引入了P2G(电转气)装置和碳捕集技术,实现了碳经济闭环。通过多能转换和储能系统的协同调度,提高了系统的灵活性和鲁棒性。文中详细介绍了模型的关键组件和技术实现,包括IGDT的鲁棒性参数设置、P2G与碳捕集的协同控制、储能系统的三维协同调度等。此外,模型展示了在极端天气和负荷波动下的优异表现,显著降低了碳排放成本并提高了能源利用效率。 适合人群:从事能源系统优化、电力调度、碳交易等相关领域的研究人员和工程师。 使用场景及目标:适用于需要处理多种能源形式和不确定性的综合能源系统调度场景。主要目标是提高系统的灵活性、鲁棒性和经济效益,减少碳排放。 其他说明:模型具有良好的扩展性,可以通过修改配置文件轻松集成新的能源设备。代码中包含了详细的注释和公式推导,便于理解和进一步改进。

    毕业设计的论文撰写、终期答辩相关的资源.m

    毕业设计的论文撰写、终期答辩相关的资源

    机器学习(预测模型):专注于 2024 年出现的漏洞(CVE)信息数据集

    该是一个在 Kaggle 上发布的数据集,专注于 2024 年出现的漏洞(CVE)信息。以下是关于该数据集的详细介绍:该数据集收集了 2024 年记录在案的各类漏洞信息,涵盖了漏洞的利用方式(Exploits)、通用漏洞评分系统(CVSS)评分以及受影响的操作系统(OS)。通过整合这些信息,研究人员和安全专家可以全面了解每个漏洞的潜在威胁、影响范围以及可能的攻击途径。数据主要来源于权威的漏洞信息平台,如美国国家漏洞数据库(NVD)等。这些数据经过整理和筛选后被纳入数据集,确保了信息的准确性和可靠性。数据集特点:全面性:涵盖了多种操作系统(如 Windows、Linux、Android 等)的漏洞信息,反映了不同平台的安全状况。实用性:CVSS 评分提供了漏洞严重程度的量化指标,帮助用户快速评估漏洞的优先级。同时,漏洞利用信息(Exploits)为安全研究人员提供了攻击者可能的攻击手段,有助于提前制定防御策略。时效性:专注于 2024 年的漏洞数据,反映了当前网络安全领域面临的新挑战和新趋势。该数据集可用于多种研究和实践场景: 安全研究:研究人员可以利用该数据集分析漏洞的分布规律、攻击趋势以及不同操作系统之间的安全差异,为网络安全防护提供理论支持。 机器学习与数据分析:数据集中的结构化信息适合用于机器学习模型的训练,例如预测漏洞的 CVSS 评分、识别潜在的高危漏洞等。 企业安全评估:企业安全团队可以参考该数据集中的漏洞信息,结合自身系统的实际情况,进行安全评估和漏洞修复计划的制定。

    建模大赛入门指南:从零基础到实战应用.pdf

    内容概要:本文档作为建模大赛的入门指南,详细介绍了建模大赛的概念、类型、竞赛流程、核心步骤与技巧,并提供实战案例解析。文档首先概述了建模大赛,指出其以数学、计算机技术为核心,主要分为数学建模、3D建模和AI大模型竞赛三类。接着深入解析了数学建模竞赛,涵盖组队策略(如三人分别负责建模、编程、论文写作)、时间安排(72小时内完成全流程)以及问题分析、模型建立、编程实现和论文撰写的要点。文中还提供了物流路径优化的实战案例,展示了如何将实际问题转化为图论问题并采用Dijkstra或蚁群算法求解。最后,文档推荐了不同类型建模的学习资源与工具,并给出了新手避坑建议,如避免过度复杂化模型、重视可视化呈现等。; 适合人群:对建模大赛感兴趣的初学者,特别是高校学生及希望参与数学建模竞赛的新手。; 使用场景及目标:①了解建模大赛的基本概念和分类;②掌握数学建模竞赛的具体流程与分工;③学习如何将实际问题转化为数学模型并求解;④获取实战经验和常见错误规避方法。; 其他说明:文档不仅提供了理论知识,还结合具体实例和代码片段帮助读者更好地理解和实践建模过程。建议新手从中小型赛事开始积累经验,逐步提升技能水平。

    protobuf-6.30.1-cp310-abi3-win32.whl

    该资源为protobuf-6.30.1-cp310-abi3-win32.whl,欢迎下载使用哦!

    大数据环境构建:从虚拟机创建到Ambari集群部署的技术指南

    内容概要:本文档详细介绍了基于Linux系统的大数据环境搭建流程,涵盖从虚拟机创建到集群建立的全过程。首先,通过一系列步骤创建并配置虚拟机,包括设置IP地址、安装MySQL数据库等操作。接着,重点讲解了Ambari的安装与配置,涉及关闭防火墙、设置免密登录、安装时间同步服务(ntp)、HTTP服务以及配置YUM源等关键环节。最后,完成了Ambari数据库的创建、JDK的安装、Ambari server和agent的部署,并指导用户创建集群。整个过程中还提供了针对可能出现的问题及其解决方案,确保各组件顺利安装与配置。 适合人群:具有Linux基础操作技能的数据工程师或运维人员,尤其是那些需要构建和管理大数据平台的专业人士。 使用场景及目标:适用于希望快速搭建稳定可靠的大数据平台的企业或个人开发者。通过本指南可以掌握如何利用Ambari工具自动化部署Hadoop生态系统中的各个组件,从而提高工作效率,降低维护成本。 其他说明:文档中包含了大量具体的命令行指令和配置细节,建议读者按照顺序逐步操作,并注意记录下重要的参数值以便后续参考。此外,在遇到问题时可参照提供的解决方案进行排查,必要时查阅官方文档获取更多信息。

Global site tag (gtag.js) - Google Analytics