- 浏览: 151136 次
- 性别:
- 来自: 大连
-
文章分类
最新评论
-
zhuxinquan61:
你好,我是一个初学者,不知道是不是有validation.xm ...
struts中的Validator-rules.xml配置文件详解 -
wukele:
中文文件名压缩后是乱码~
JAVA压缩文件或文件夹的代码 -
suncjh:
高强度文件夹加密大师
U盘、移动硬盘加密工具绿色版 -
sbpcx:
assdust110 写道jiasky 写道请问楼主的头像是不 ...
Hibernate查询详解 -
yeshuang:
里面的很多的东西
SSH2整合步骤
最近在做一个银行的生产数据脱敏系统,今天写代码时遇到了一个“瓶颈”,脱敏系统需要将生产环境上Infoxmix里的数据原封不动的Copy到另一台 Oracle数据库服务器上,然后对Copy后的数据作些漂白处理。为了将人为干预的因素降到最低,在系统设计时采用Java代码对数据作Copy,思路 如图:
首 先在代码与生产库间建立一个Connection,将读取到的数据放在ResultSet对象,然后再与开发库建立一个Connection。从 ResultSet取出数据后通过TestConnection插入到开发库,以此来实现Copy。代码写完后运行程序,速度太慢了,一秒钟只能Copy 一千条数据,生产库上有上亿条数据,按照这个速度同步完要到猴年马月呀,用PreparedStatement批处理速度也没有提交多少。我想能不能用多 线程处理,多个人干活总比一个人干活速度要快。
假设生产库有1万条数据,我开5个线程,每个线程分2000条数据,同时向开发库里插数据,Oracle支持高并发这样的话速度至少会提高好多倍,按照这 个思路重新进行了编码,批处理设置为1万条一提交,统计插入数量的变量使用 java.util.concurrent.atomic.AtomicLong,程序一运行,传输速度飞快CPU利用率在70%~90%,现在一秒钟可 以拷贝50万条记录,没过几分钟上亿条数据一条不落地全部Copy到目标库。
在查询的时候我用了如下语句
实习生问如果xx表里有上千万条记录,你全部查询出来放到ResultSet, 那内存不溢出了么?Java在设计的时候已经考虑到这个问题了,并没有查询出所有的数据,而是只查询了一部分数据放到ResultSet,数据“用完”它 会自动查询下一批数据,你可以用setFetchSize(int rows)方法设置一个建议值给ResultSet,告诉它每次从数据库Fetch多少条数据。但我不赞成,因为JDBC驱动会根据实际情况自动调整 Fetch的数量。另外性能也与网线的带宽有直接的关系。
相关代码
那具体的表结构当然是看你具体的操作了;我的表只有五个字段;当然就set五个了;难道还要set6个?
用户set和用SQL拼接是有性能的差别的!既然是考虑大数据的迁移,所以对每条语句的性能都是要考虑到滴。
这种事情DBA估计不到10分钟就全搞定了,其实这种事情就该DBA去搞,各有所属,各有专攻嘛。
生产库别说select了,连ip我们都不知道,所以这种事还是不掺和了。
呵呵。。。解决方案有很多的;我也是实际项目赶到这儿了;所以就用java线程模式处理了!
老兄,你怎么随便拿我的文章到处贴,您也在大连银行工作?不过我好象没有见过你
真的是转的啊
呵呵。。。解决方案有很多的;我也是实际项目赶到这儿了;所以就用java线程模式处理了!
老兄,你怎么随便拿我的文章到处贴,您也在大连银行工作?不过我好象没有见过你
哈,直接遇到原作者就太尴尬了,不过老兄你也别介意。现在到处都是那种超级年轻的软件工程师。总的给他们一点点信心啊,哈哈
天~\(≧▽≦)/~啦啦啦,这是银行系统啊 。关链接都不在finally里面的啊,这样的银行系统敢用么。。

首 先在代码与生产库间建立一个Connection,将读取到的数据放在ResultSet对象,然后再与开发库建立一个Connection。从 ResultSet取出数据后通过TestConnection插入到开发库,以此来实现Copy。代码写完后运行程序,速度太慢了,一秒钟只能Copy 一千条数据,生产库上有上亿条数据,按照这个速度同步完要到猴年马月呀,用PreparedStatement批处理速度也没有提交多少。我想能不能用多 线程处理,多个人干活总比一个人干活速度要快。
假设生产库有1万条数据,我开5个线程,每个线程分2000条数据,同时向开发库里插数据,Oracle支持高并发这样的话速度至少会提高好多倍,按照这 个思路重新进行了编码,批处理设置为1万条一提交,统计插入数量的变量使用 java.util.concurrent.atomic.AtomicLong,程序一运行,传输速度飞快CPU利用率在70%~90%,现在一秒钟可 以拷贝50万条记录,没过几分钟上亿条数据一条不落地全部Copy到目标库。
在查询的时候我用了如下语句
String queryStr = "SELECT * FROM xx"; ResultSet coreRs = PreparedStatement.executeQuery(queryStr);
实习生问如果xx表里有上千万条记录,你全部查询出来放到ResultSet, 那内存不溢出了么?Java在设计的时候已经考虑到这个问题了,并没有查询出所有的数据,而是只查询了一部分数据放到ResultSet,数据“用完”它 会自动查询下一批数据,你可以用setFetchSize(int rows)方法设置一个建议值给ResultSet,告诉它每次从数据库Fetch多少条数据。但我不赞成,因为JDBC驱动会根据实际情况自动调整 Fetch的数量。另外性能也与网线的带宽有直接的关系。
相关代码
package com.dlbank.domain; import java.sql.Connection; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.Statement; import java.util.List; import java.util.concurrent.atomic.AtomicLong; import org.apache.log4j.Logger; /** *<p>title: 数据同步类 </p> *<p>Description: 该类用于将生产核心库数据同步到开发库</p> *@author Tank Zhang */ public class CoreDataSyncImpl implements CoreDataSync { private List<String> coreTBNames; //要同步的核心库表名 private ConnectionFactory connectionFactory; private Logger log = Logger.getLogger(getClass()); private AtomicLong currentSynCount = new AtomicLong(0L); //当前已同步的条数 private int syncThreadNum; //同步的线程数 @Override public void syncData(int businessType) throws Exception { for (String tmpTBName : coreTBNames) { log.info("开始同步核心库" + tmpTBName + "表数据"); // 获得核心库连接 Connection coreConnection = connectionFactory.getDMSConnection(4); Statement coreStmt = coreConnection.createStatement(); //为每个线程分配结果集 ResultSet coreRs = coreStmt.executeQuery("SELECT count(*) FROM "+tmpTBName); coreRs.next(); //总共处理的数量 long totalNum = coreRs.getLong(1); //每个线程处理的数量 long ownerRecordNum =(long) Math.ceil((totalNum / syncThreadNum)); log.info("共需要同步的数据量:"+totalNum); log.info("同步线程数量:"+syncThreadNum); log.info("每个线程可处理的数量:"+ownerRecordNum); // 开启五个线程向目标库同步数据 for(int i=0; i < syncThreadNum; i ++){ StringBuilder sqlBuilder = new StringBuilder(); //拼装后SQL示例 //Select * From dms_core_ds Where id between 1 And 657398 //Select * From dms_core_ds Where id between 657399 And 1314796 //Select * From dms_core_ds Where id between 1314797 And 1972194 //Select * From dms_core_ds Where id between 1972195 And 2629592 //Select * From dms_core_ds Where id between 2629593 And 3286990 //.. sqlBuilder.append("Select * From ").append(tmpTBName) .append(" Where id between " ).append(i * ownerRecordNum +1) .append( " And ") .append((i * ownerRecordNum + ownerRecordNum)); Thread workThread = new Thread( new WorkerHandler(sqlBuilder.toString(),businessType,tmpTBName)); workThread.setName("SyncThread-"+i); workThread.start(); } while (currentSynCount.get() < totalNum); //休眠一会儿让数据库有机会commit剩余的批处理(只针对JUnit单元测试,因为单元测试完成后会关闭虚拟器,使线程里的代码没有机会作提交操作); //Thread.sleep(1000 * 3); log.info( "核心库"+tmpTBName+"表数据同步完成,共同步了" + currentSynCount.get() + "条数据"); } }// end for loop public void setCoreTBNames(List<String> coreTBNames) { this.coreTBNames = coreTBNames; } public void setConnectionFactory(ConnectionFactory connectionFactory) { this.connectionFactory = connectionFactory; } public void setSyncThreadNum(int syncThreadNum) { this.syncThreadNum = syncThreadNum; } //数据同步线程 final class WorkerHandler implements Runnable { ResultSet coreRs; String queryStr; int businessType; String targetTBName; public WorkerHandler(String queryStr,int businessType,String targetTBName) { this.queryStr = queryStr; this.businessType = businessType; this.targetTBName = targetTBName; } @Override public void run() { try { //开始同步 launchSyncData(); } catch(Exception e){ log.error(e); e.printStackTrace(); } } //同步数据方法 void launchSyncData() throws Exception{ // 获得核心库连接 Connection coreConnection = connectionFactory.getDMSConnection(4); Statement coreStmt = coreConnection.createStatement(); // 获得目标库连接 Connection targetConn = connectionFactory.getDMSConnection(businessType); targetConn.setAutoCommit(false);// 设置手动提交 PreparedStatement targetPstmt = targetConn.prepareStatement("INSERT INTO " + targetTBName+" VALUES (?,?,?,?,?)"); ResultSet coreRs = coreStmt.executeQuery(queryStr); log.info(Thread.currentThread().getName()+"'s Query SQL::"+queryStr); int batchCounter = 0; //累加的批处理数量 while (coreRs.next()) { targetPstmt.setString(1, coreRs.getString(2)); targetPstmt.setString(2, coreRs.getString(3)); targetPstmt.setString(3, coreRs.getString(4)); targetPstmt.setString(4, coreRs.getString(5)); targetPstmt.setString(5, coreRs.getString(6)); targetPstmt.addBatch(); batchCounter++; currentSynCount.incrementAndGet();//递增 if (batchCounter % 10000 == 0) { //1万条数据一提交 targetPstmt.executeBatch(); targetPstmt.clearBatch(); targetConn.commit(); } } //提交剩余的批处理 targetPstmt.executeBatch(); targetPstmt.clearBatch(); targetConn.commit(); //释放连接 connectionFactory.release(targetConn, targetPstmt,coreRs); } } }
评论
35 楼
gaobo424
2010-11-26
你是在哪家银行哦,有点搞扯,居然允许你连接它的核心数据库???你要是发一条Update语句呢?我做银行的项目都N久了,做过建行、商业银行的项目,谁敢把核心数据给你直连???顶多只能给你备过份出来,你再导入还差不多
34 楼
zhys513
2010-11-26
迁移数据的话,PB也有个可以做不同数据库的对接(数据管道)。迁移不是很快,但操作很简单就是了。
33 楼
zhys513
2010-11-26
jiayj198609 写道
yjwxfpl 写道
PreparedStatement targetPstmt = targetConn.prepareStatement("INSERT INTO " + targetTBName+" VALUES (?,?,?,?,?)");
你同步的表结构都只有五个字段 ,targetPstmt.setString() 类型全都是String?
你同步的表结构都只有五个字段 ,targetPstmt.setString() 类型全都是String?
那具体的表结构当然是看你具体的操作了;我的表只有五个字段;当然就set五个了;难道还要set6个?
用户set和用SQL拼接是有性能的差别的!既然是考虑大数据的迁移,所以对每条语句的性能都是要考虑到滴。
32 楼
LikeEJB_CC
2010-11-26
一次1000条,还多线程,IO怎么解决
频繁的少量写入,不如一次大批量的写入.
频繁的少量写入,不如一次大批量的写入.
31 楼
sunlong
2010-11-26
线程处理上并不是很好吧,比如while (currentSynCount.get() < totalNum);你这是让主线程运行空语句,太浪费了
30 楼
smithfox
2010-11-26
首先, 如果楼主真的是转载别人的文章, 需要加引说原文. 这种直接抄袭的做法, 我们的robbin哥是最鄙视的
这种数据库的手动复制用在一次性工作善可, 如果是一个长期使用的tools或是服务, 是很成问题的.
我所做的系统遇到了很多的问题, 主要有
1) CLOB/BLOB字段, 只比较长度, 不比较实际内容, 并且用ojdbc6.jar(最新oracle驱动fix了不少bug, 并且支持JDBC4标准, 所以用CLOB/ BLOG字段的支持更好
2) 一次性查询过多数据, 遇到 "ORA-1013", "ORA-1555": 需要对查询进行分段(分段逻辑需要针对不同的数据库定制, 一般情况是对类似lastmodifiedtime字段, 以时间分段
3) insert产生冲突, 或是其他的异常, 需要有非常好的异常处理框架, 因为JDBC的异常只有SQLException, 不能区分是连接异常, 表级异常, 还是行级异常. 并且要做好出异常的尝试机制. 只有这样才能避免因为中间异常而出现的中途退出和进入死循环. 要知道真正的产品上一次复制可能是好几天, 没有人能一直盯着看. 程序必须有很好的健壮性.
4) 对第三的补充, 尽管JDBC4标准已经对SQLException做了很好的改进, 但是各大数据库产商支持太差.
yizhilong28 写道
1) CLOB/BLOB字段
2) 一次性查询过多数据, 遇到 "ORA-1013", "ORA-1555",或堆栈溢出
3) insert时产生主键冲突
做过一同步的项目,1,2,3都遇到了,用java基本没解,头疼
2) 一次性查询过多数据, 遇到 "ORA-1013", "ORA-1555",或堆栈溢出
3) insert时产生主键冲突
做过一同步的项目,1,2,3都遇到了,用java基本没解,头疼
这种数据库的手动复制用在一次性工作善可, 如果是一个长期使用的tools或是服务, 是很成问题的.
我所做的系统遇到了很多的问题, 主要有
1) CLOB/BLOB字段, 只比较长度, 不比较实际内容, 并且用ojdbc6.jar(最新oracle驱动fix了不少bug, 并且支持JDBC4标准, 所以用CLOB/ BLOG字段的支持更好
2) 一次性查询过多数据, 遇到 "ORA-1013", "ORA-1555": 需要对查询进行分段(分段逻辑需要针对不同的数据库定制, 一般情况是对类似lastmodifiedtime字段, 以时间分段
3) insert产生冲突, 或是其他的异常, 需要有非常好的异常处理框架, 因为JDBC的异常只有SQLException, 不能区分是连接异常, 表级异常, 还是行级异常. 并且要做好出异常的尝试机制. 只有这样才能避免因为中间异常而出现的中途退出和进入死循环. 要知道真正的产品上一次复制可能是好几天, 没有人能一直盯着看. 程序必须有很好的健壮性.
4) 对第三的补充, 尽管JDBC4标准已经对SQLException做了很好的改进, 但是各大数据库产商支持太差.
29 楼
吾日三省吾身
2010-11-26
尊重人家版权嘛 转载的时候要说明哦
28 楼
sheep3600
2010-11-26
codermouse 写道
最近刚在做一个同步项目,和楼主要求的很像。思路也和楼主要求的差不多。
不过说实话,不赞成用JAVA做数据同步,我再做的时候就出现很多不方便处理的问题,总是通过绕来绕去来解决。
可惜本人只会JAVA(而且还不是精通),其它的都不会,DBLINK也是开始做这个同步项目后才知道的,不过DBLINK用了一段时间,觉得很不稳定。也不赞成用。
如果有DBA,或者我是DBA,我想数据同步是个很容易解决的问题。
哎。。。感叹程序员要学的东西太多。
PS1:这是转贴?
PS2:JAVAEYE重新开张,数据丢失了,怎么还要我做发帖测试?还是经过前2天的事故,要求更进一步了?
PS3:恭喜JAVAEYE重新开张,不好意思,话有点过多了。
不过说实话,不赞成用JAVA做数据同步,我再做的时候就出现很多不方便处理的问题,总是通过绕来绕去来解决。
可惜本人只会JAVA(而且还不是精通),其它的都不会,DBLINK也是开始做这个同步项目后才知道的,不过DBLINK用了一段时间,觉得很不稳定。也不赞成用。
如果有DBA,或者我是DBA,我想数据同步是个很容易解决的问题。
哎。。。感叹程序员要学的东西太多。
PS1:这是转贴?
PS2:JAVAEYE重新开张,数据丢失了,怎么还要我做发帖测试?还是经过前2天的事故,要求更进一步了?
PS3:恭喜JAVAEYE重新开张,不好意思,话有点过多了。
这种事情DBA估计不到10分钟就全搞定了,其实这种事情就该DBA去搞,各有所属,各有专攻嘛。
生产库别说select了,连ip我们都不知道,所以这种事还是不掺和了。
27 楼
renpeng301
2010-11-26
sunnylocus 写道
jiayj198609 写道
imacback 写道
为什么要用java导呢,有没有别的解决方案???这个实在是慢,搞数据仓库的不错。
呵呵。。。解决方案有很多的;我也是实际项目赶到这儿了;所以就用java线程模式处理了!
老兄,你怎么随便拿我的文章到处贴,您也在大连银行工作?不过我好象没有见过你
真的是转的啊
26 楼
85977328
2010-11-26
直接用dblink
25 楼
bitray
2010-11-26
sunnylocus 写道
jiayj198609 写道
imacback 写道
为什么要用java导呢,有没有别的解决方案???这个实在是慢,搞数据仓库的不错。
呵呵。。。解决方案有很多的;我也是实际项目赶到这儿了;所以就用java线程模式处理了!
老兄,你怎么随便拿我的文章到处贴,您也在大连银行工作?不过我好象没有见过你
哈,直接遇到原作者就太尴尬了,不过老兄你也别介意。现在到处都是那种超级年轻的软件工程师。总的给他们一点点信心啊,哈哈
24 楼
xhdwell
2010-11-26
用jdbc效率肯定不行的。建议通过动态组建脚本,使用脚本执行COPY
23 楼
pikenlike_123
2010-11-25
我记得有个数据抽取/数据转换工具叫 ODI
ODI最大的特点是特征是提出了知识模块的概念(Knowledge Module)。
可以百度一下..
ODI最大的特点是特征是提出了知识模块的概念(Knowledge Module)。
可以百度一下..
22 楼
houzidexinsheng
2010-11-25
去年我写了一个应用系统,不过场景和你有区别,我们主要是要同步基础数据,对需要同步的基础数据做版本控制,发布的时候直接把开发库的基础数据增量更新到生产库,如果需要的话,可以交流一下!
21 楼
yizhilong28
2010-11-25
1) CLOB/BLOB字段
2) 一次性查询过多数据, 遇到 "ORA-1013", "ORA-1555",或堆栈溢出
3) insert时产生主键冲突
做过一同步的项目,1,2,3都遇到了,用java基本没解,头疼
2) 一次性查询过多数据, 遇到 "ORA-1013", "ORA-1555",或堆栈溢出
3) insert时产生主键冲突
做过一同步的项目,1,2,3都遇到了,用java基本没解,头疼
20 楼
gwpking8419
2010-11-25
ETL工具呗
19 楼
codermouse
2010-11-25
最近刚在做一个同步项目,和楼主要求的很像。思路也和楼主要求的差不多。
不过说实话,不赞成用JAVA做数据同步,我再做的时候就出现很多不方便处理的问题,总是通过绕来绕去来解决。
可惜本人只会JAVA(而且还不是精通),其它的都不会,DBLINK也是开始做这个同步项目后才知道的,不过DBLINK用了一段时间,觉得很不稳定。也不赞成用。
如果有DBA,或者我是DBA,我想数据同步是个很容易解决的问题。
哎。。。感叹程序员要学的东西太多。
PS1:这是转贴?
PS2:JAVAEYE重新开张,数据丢失了,怎么还要我做发帖测试?还是经过前2天的事故,要求更进一步了?
PS3:恭喜JAVAEYE重新开张,不好意思,话有点过多了。
不过说实话,不赞成用JAVA做数据同步,我再做的时候就出现很多不方便处理的问题,总是通过绕来绕去来解决。
可惜本人只会JAVA(而且还不是精通),其它的都不会,DBLINK也是开始做这个同步项目后才知道的,不过DBLINK用了一段时间,觉得很不稳定。也不赞成用。
如果有DBA,或者我是DBA,我想数据同步是个很容易解决的问题。
哎。。。感叹程序员要学的东西太多。
PS1:这是转贴?
PS2:JAVAEYE重新开张,数据丢失了,怎么还要我做发帖测试?还是经过前2天的事故,要求更进一步了?
PS3:恭喜JAVAEYE重新开张,不好意思,话有点过多了。
18 楼
jiasky
2010-11-25
你的这种思路人们用来做了很多事,
1个西瓜1个人吃了1分钟,
现在分成10个人,每个人6秒钟就吃完了,呵呵...
1个西瓜1个人吃了1分钟,
现在分成10个人,每个人6秒钟就吃完了,呵呵...
17 楼
icanfly
2010-11-25
如果,我是说如果,你在中转复制的时候突然你的中转器(java实现的)挂了,当你恢复中转的时候,怎么处理?有容错吗?
16 楼
liliugen
2010-11-25
天~\(≧▽≦)/~啦啦啦,这是银行系统啊 。关链接都不在finally里面的啊,这样的银行系统敢用么。。
发表评论
-
少时诵诗书
2011-04-25 16:36 105111111111111111111111111111111 -
new struts2
2011-01-13 16:20 929new struts2 -
java获取本地机器所有IP和物理地址
2010-12-11 11:07 8330package com.cn; import java. ... -
用java随机画出两个圆,判断它们是否相交
2010-11-25 15:30 4023import java.awt.*; impor ... -
写一个较啰嗦;但是很好玩儿的java程序
2010-11-25 15:26 7266package com.cn; import java. ... -
JAVA压缩文件或文件夹的代码
2010-11-25 09:31 2584package com.cn; import java. ... -
获取IP地址
2010-11-25 09:15 920package com.tianren.service; i ... -
使用JAVA数字证书做数字签名认证
2010-11-25 08:53 17521. keytool -genkey -keystore c ... -
java打印程序设计
2010-11-22 10:05 9921 前言 在我们的实际 ... -
各种排序算法java实现
2010-11-22 09:58 862package org.rut.util.algorithm. ... -
java中调用ORACLE存储过程
2010-11-22 09:47 1109一:无返回值的存储过程 存储过程为: CREATE OR ... -
增强Eclipse ,MyEclipse的代码提示功能(图文教程)V1.1
2010-11-19 09:27 875此文档需要下载![/size] -
myeclipse8.0下载 汉化 破解方法 及 svn配置
2010-11-19 09:21 1237今天到网上弄了一个MyEclipse8.0 的呵呵。包括可以汉 ... -
MyEclipse 8.0正式版发布+高速下载以及安装+注册码+破解+升级
2010-11-19 09:17 3753MyEclipse 8.0正式版发布+高速下载以及安装+注册码 ... -
java时间操作函数汇总
2010-11-18 13:15 840经常用到时间日期类,所以就将常用的日期方法和属性都归纳总结如下 ... -
Java文件下载的几种方式
2010-11-18 12:58 898public HttpServletResponse down ... -
Java发送邮件(包括文本,网页,附件)
2010-11-17 10:47 1849commons-email-1.2.jar: 这是Apache ... -
java.lang.String中的trim()方法的详细使用介绍
2010-11-15 11:31 5454String.Trim()方法到底为我们做了什么,仅仅是去除字 ...
相关推荐
1.版本:matlab2014/2019a/2024a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。
MMC整流器技术解析:基于Matlab的双闭环控制策略与环流抑制性能研究,Matlab下的MMC整流器技术文档:18个子模块,双闭环控制稳定直流电压,环流抑制与最近电平逼近调制,优化桥臂电流波形,高效并网运行。,MMC整流器(Matlab),技术文档 1.MMC工作在整流侧,子模块个数N=18,直流侧电压Udc=25.2kV,交流侧电压6.6kV 2.控制器采用双闭环控制,外环控制直流电压,采用PI调节器,电流内环采用PI+前馈解耦; 3.环流抑制采用PI控制,能够抑制环流二倍频分量; 4.采用最近电平逼近调制(NLM), 5.均压排序:电容电压排序采用冒泡排序,判断桥臂电流方向确定投入切除; 结果: 1.输出的直流电压能够稳定在25.2kV; 2.有功功率,无功功率稳态时波形稳定,有功功率为3.2MW,无功稳定在0Var; 3.网侧电压电流波形均为对称的三相电压和三相电流波形,网侧电流THD=1.47%<2%,符合并网要求; 4.环流抑制后桥臂电流的波形得到改善,桥臂电流THD由9.57%降至1.93%,环流波形也可以看到得到抑制; 5.电容电压能够稳定变化 ,工作点关键词:MMC
Boost二级升压光伏并网结构的Simulink建模与MPPT最大功率点追踪:基于功率反馈的扰动观察法调整电压方向研究,Boost二级升压光伏并网结构的Simulink建模与MPPT最大功率点追踪:基于功率反馈的扰动观察法调整电压方向研究,Boost二级升压光伏并网结构,Simulink建模,MPPT最大功率点追踪,扰动观察法采用功率反馈方式,若ΔP>0,说明电压调整的方向正确,可以继续按原方向进行“干扰”;若ΔP<0,说明电压调整的方向错误,需要对“干扰”的方向进行改变。 ,Boost升压;光伏并网结构;Simulink建模;MPPT最大功率点追踪;扰动观察法;功率反馈;电压调整方向。,光伏并网结构中Boost升压MPPT控制策略的Simulink建模与功率反馈扰动观察法
STM32F103C8T6 USB寄存器开发详解(12)-键盘设备
科技活动人员数专指直接从事科技活动以及专门从事科技活动管理和为科技活动提供直接服务的人员数量
Matlab Simulink仿真探究Flyback反激式开关电源性能表现与优化策略,Matlab Simulink仿真探究Flyback反激式开关电源的工作机制,Matlab Simulimk仿真,Flyback反激式开关电源仿真 ,Matlab; Simulink仿真; Flyback反激式; 开关电源仿真,Matlab Simulink在Flyback反激式开关电源仿真中的应用
基于Comsol的埋地电缆电磁加热计算模型:深度解析温度场与电磁场分布学习资料与服务,COMSOL埋地电缆电磁加热计算模型:温度场与电磁场分布的解析与学习资源,comsol 埋地电缆电磁加热计算模型,可以得到埋地电缆温度场及电磁场分布,提供学习资料和服务, ,comsol;埋地电缆电磁加热计算模型;温度场分布;电磁场分布;学习资料;服务,Comsol埋地电缆电磁加热模型:温度场与电磁场分布学习资料及服务
1、文件内容:ibus-table-chinese-yong-1.4.6-3.el7.rpm以及相关依赖 2、文件形式:tar.gz压缩包 3、安装指令: #Step1、解压 tar -zxvf /mnt/data/output/ibus-table-chinese-yong-1.4.6-3.el7.tar.gz #Step2、进入解压后的目录,执行安装 sudo rpm -ivh *.rpm 4、更多资源/技术支持:公众号禅静编程坊
基于51单片机protues仿真的汽车智能灯光控制系统设计(仿真图、源代码) 一、设计项目 根据本次设计的要求,设计出一款基于51单片机的自动切换远近光灯的设计。 技术条件与说明: 1. 设计硬件部分,中央处理器采用了STC89C51RC单片机; 2. 使用两个灯珠代表远近光灯,感光部分采用了光敏电阻,因为光敏电阻输出的是电压模拟信号,单片机不能直接处理模拟信号,所以经过ADC0832进行转化成数字信号; 3. 显示部分采用了LCD1602液晶,还增加按键部分电路,可以选择手自动切换远近光灯; 4. 用超声模块进行检测距离;
altermanager的企业微信告警服务
MyAgent测试版本在线下载
Comsol技术:可调BIC应用的二氧化钒VO2材料探索,Comsol模拟二氧化钒VO2的可调BIC特性研究,Comsol二氧化钒VO2可调BIC。 ,Comsol; 二氧化钒VO2; 可调BIC,Comsol二氧化钒VO2材料:可调BIC技术的关键应用
C++学生成绩管理系统源码
基于Matlab与Cplex的激励型需求响应模式:负荷转移与电价响应的差异化目标函数解析,基于Matlab与CPLEX的激励型需求响应负荷转移策略探索,激励型需求响应 matlab +cplex 激励型需求响应采用激励型需求响应方式对负荷进行转移,和电价响应模式不同,具体的目标函数如下 ,激励型需求响应; matlab + cplex; 负荷转移; 目标函数。,Matlab与Cplex结合的激励型需求响应模型及其负荷转移策略
scratch介绍(scratch说明).zip
内容概要:本文全面介绍了深度学习模型的概念、工作机制和发展历程,详细探讨了神经网络的构建和训练过程,包括反向传播算法和梯度下降方法。文中还列举了深度学习在图像识别、自然语言处理、医疗和金融等多个领域的应用实例,并讨论了当前面临的挑战,如数据依赖、计算资源需求、可解释性和对抗攻击等问题。最后,文章展望了未来的发展趋势,如与量子计算和区块链的融合,以及在更多领域的应用前景。 适合人群:对该领域有兴趣的技术人员、研究人员和学者,尤其适合那些希望深入了解深度学习原理和技术细节的读者。 使用场景及目标:①理解深度学习模型的基本原理和结构;②了解深度学习模型的具体应用案例;③掌握应对当前技术挑战的方向。 阅读建议:文章内容详尽丰富,读者应在阅读过程中注意理解各个关键技术的概念和原理,尤其是神经网络的构成及训练过程。同时也建议对比不同模型的特点及其在具体应用中的表现。
该文档提供了一个关于供应链管理系统开发的详细指南,重点介绍了项目安排、技术实现和框架搭建的相关内容。 文档分为以下几个关键部分: 项目安排:主要步骤包括搭建框架(1天),基础数据模块和权限管理(4天),以及应收应付和销售管理(5天)。 供应链概念:供应链系统的核心流程是通过采购商品放入仓库,并在销售时从仓库提取商品,涉及三个主要订单:采购订单、销售订单和调拨订单。 大数据的应用:介绍了数据挖掘、ETL(数据抽取)和BI(商业智能)在供应链管理中的应用。 技术实现:讲述了DAO(数据访问对象)的重用、服务层的重用、以及前端JS的继承机制、jQuery插件开发等技术细节。 系统框架搭建:包括Maven环境的配置、Web工程的创建、持久化类和映射文件的编写,以及Spring配置文件的实现。 DAO的需求和功能:供应链管理系统的各个模块都涉及分页查询、条件查询、删除、增加、修改操作等需求。 泛型的应用:通过示例说明了在Java语言中如何使用泛型来实现模块化和可扩展性。 文档非常技术导向,适合开发人员参考,用于构建供应链管理系统的架构和功能模块。
这份长达104页的手册由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室的余梦珑博士后及其团队精心编撰,内容详尽,覆盖了从基础概念、技术原理到实战案例的全方位指导。它不仅适合初学者快速了解DeepSeek的基本操作,也为有经验的用户提供了高级技巧和优化策略。
主题说明: 1、将mxtheme目录放置根目录 | 将mxpro目录放置template文件夹中 2、苹果cms后台-系统-网站参数配置-网站模板-选择mxpro 模板目录填写html 3、网站模板选择好之后一定要先访问前台,然后再进入后台设置 4、主题后台地址: MXTU MAX图图主题,/admin.php/admin/mxpro/mxproset admin.php改成你登录后台的xxx.php 5、首页幻灯片设置视频推荐9,自行后台设置 6、追剧周表在视频数据中,节目周期添加周一至周日自行添加,格式:一,二,三,四,五,六,日
运行GUI版本,可二开