`
liyonghui160com
  • 浏览: 779965 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

TransactionalTopology分析

阅读更多

 



事务性Topologies是包含在Storm0.7.0版本中的新特性,它激活消息语义来确保你以一种安全的方式重放元组并且它们只会被处理一次。没有事务性topologies的支持,你不可能以一种完全精确、可扩展和容错的方式计数。

事务性Topologies是建立标准Storm spout和bolts之上的一个抽象。

设计

在事务性topology中,Storm使用并行和顺序元组处理的混合模式。Spout产生的批量的元组被bolts并行的处理。这些bolts中的一部分被认为是提交者,它们以某种严格排序的方式提交处理过的批量元组。这意味着如果你有两个批量,每个批量包含五个元组,两边的元组会被bolts以并行的方式处理,但是提交者bolts直到第一个元组被提交成功后才会提交第二个元组。

当处理事务性Topology时,可以从源重放批量的元组,甚至有时候是多次重放是非常重要的。所以确保你的数据源--你的spout将要连接的那个--具备这个能力。

这可以被描述成两个不同的步骤,或者阶段:

处理阶段

   完全并行的阶段,许多批量被同时执行。

提交阶段

   严格排序的阶段,第二个批量直到第一个批量被提交成功后才提交。

把这两个阶段称为Storm事务。

storm使用zookeeper来保存事务元数据。缺省的情况下就使用为topology服务的那个zookeeper来保存元数据。你可以通过覆盖配置键transactional.zookeeper.servers 和 transactional.zookeeper.port.来更改。
事务实战

为看清事务怎样工作,你将建立一个Twitter分析工具。你会读取存储在Redis中的tweets,通过一系列bolts处理他们,然后存储--在另一个Redis数据库中--所有标签和它们在tweets中的频率的列表,所有用户和他们出现在tweets中的总计的列表和一个用户及他们标签和频率的列表。



 

正如你看到的, TweetsTransactionalSpout 会连接你的tweet数据库并向拓扑分发批次。 UserSplitterBoltHashTagSplitterBolt 两个 bolt ,从 spout 接收元组。 UserSplitterBolt 解析tweets并查找用户——以@开头的单词——然后把这些单词分发到名为 users 的自定义数据流组。 HashtagSplitterBolt 从tweet查找 # 开头的单词,并把它们分发到名为 hashtags 的自定义数据流组。第三个 boltUserHashtagJoinBolt ,接收前面提到的两个数据流组,并计算具名用户的一条tweet内的话题数量。为了计数并分发计算结果,这是个 BaseBatchBolt (稍后有更多介绍)。

最后一个bolt—— RedisCommitterBolt ——接收以上三个 bolt 的数据流组。它为每样东西计数,并在对一个批次完成处理时,把所有结果保存到redis。这是一种特殊的 bolt ,叫做提交者,在本章后面做更多讲解。

TransactionalTopologyBuilder 构建拓扑,代码如下:

TransactionalTopologyBuilder builder=
    new TransactionalTopologyBuilder("test", "spout", new TweetsTransactionalSpout());

builder.setBolt("users-splitter", new UserSplitterBolt(), 4).shuffleGrouping("spout");
buildeer.setBolt("hashtag-splitter", new HashtagSplitterBolt(), 4).shuffleGrouping("spout");

builder.setBolt("users-hashtag-manager", new UserHashtagJoinBolt(), r)
.fieldsGrouping("users-splitter", "users", new Fields("tweet_id"))
.fieldsGrouping("hashtag-splitter", "hashtags", new Fields("tweet_id"));

builder.setBolt("redis-commiter", new RedisCommiterBolt())
.globalGrouping("users-splitter", "users")
.globalGrouping("hashtag-splitter", "hashtags")
.globalGrouping("user-hashtag-merger");

 

接下来就看看如何在一个事务性拓扑中实现 spout

Spout

一个事务性拓扑的 spout 与标准 spout 完全不同。

 

public class TweetsTransactionalSpout extends BaseTransactionalSpout<TransactionMetadata>{

 

正如你在这个类定义中看到的,TweetsTransactionalSpout继承了带范型的 BaseTransactionalSpout 。指定的范型类型的对象是事务元数据集合。它将在后面的代码中用于从数据源分发批次。

在这个例子中, TransactionMetadata 定义如下:

public class TransactionMetadata implements Serializable {
    private static final long serialVersionUID = 1L;
    long from;
    int quantity;

    public TransactionMetadata(long from, int quantity) {
      this.from = from;
      this.quantity = quantity;
    }
}

 

该类的对象维护着两个属性 fromquantity ,它们用来生成批次。

spout 的最后需要实现下面的三个方法:

 

@Override
public ITransactionalSpout.Coordinator<TransactionMetadata> getCoordinator(
   Map conf, TopologyContext context) {
return new TweetsTransactionalSpoutCoordinator();
}

@Override
public backtype.storm.transactional.ITransactionalSpout.Emitter<TransactionMetadata> getEmitter(Map conf, TopologyContext contest) {
   return new TweetsTransactionalSpoutEmitter();
}

@Override
public void declareOutputFields(OuputFieldsDeclarer declarer) {
   declarer.declare(new Fields("txid", "tweet_id", "tweet"));
}

 

 

getCoordinator 方法,告诉Storm用来协调生成批次的类。 getEmitter ,负责读取批次并把它们分发到拓扑中的数据流组。最后,就像之前做过的,需要声明要分发的域。

RQ类
为了让例子简单点,我们决定用一个类封装所有对Redis的操作。

 

public class RQ {
public static final String NEXT_READ = "NEXT_READ";
public static final String NEXT_WRITE = "NEXT_WRITE";

Jedis jedis;

public RQ() {
jedis = new Jedis("localhost");
}

public long getavailableToRead(long current) {
return getNextWrite() - current;
}

public long getNextRead() {
String sNextRead = jedis.get(NEXT_READ);
if(sNextRead == null) {
return 1;
}
return Long.valueOf(sNextRead);
}

public long getNextWrite() {
return Long.valueOf(jedis.get(NEXT_WRITE));
}

public void close() {
jedis.disconnect();
}

public void setNextRead(long nextRead) {
jedis.set(NEXT_READ, ""+nextRead);
}

public List<String> getMessages(long from, int quantity) {
String[] keys = new String[quantity];
for (int i = 0; i < quantity; i++) {
keys[i] = ""+(i+from);
}
return jedis.mget(keys);
}
}

 

 

仔细阅读每个方法,确保自己理解了它们的用处。

协调者Coordinator
下面是本例的协调者实现。

public static class TweetsTransactionalSpoutCoordinator implements ITransactionalSpout.Coordinator<TransactionMetadata> {
TransactionMetadata lastTransactionMetadata;
RQ rq = new RQ();
long nextRead = 0;

public TweetsTransactionalSpoutCoordinator() {
nextRead = rq.getNextRead();
}

@Override
public TransactionMetadata initializeTransaction(BigInteger txid, TransactionMetadata prevMetadata) {
long quantity = rq.getAvailableToRead(nextRead);
quantity = quantity > MAX_TRANSACTION_SIZE ? MAX_TRANSACTION_SIZE : quantity;
TransactionMetadata ret = new TransactionMetadata(nextRead, (int)quantity);
nextRead += quantity;
return ret;
}

@Override
public boolean isReady() {
return rq.getAvailableToRead(nextRead) > 0;
}

@Override
public void close() {
rq.close();
}
}

 

 

值得一提的是, 在整个拓扑中只会有一个提交者实例 。创建提交者实例时,它会从redis读取一个从1开始的序列号,这个序列号标识要读取的tweet下一条。

第一个方法是 isReady 。在 initializeTransaction 之前调用它确认数据源已就绪并可读取。此方法应当相应的返回 truefalse 。在此例中,读取tweets数量并与已读数量比较。它们之间的不同就在于可读tweets数。如果它大于0,就意味着还有tweets未读。

最后,执行 initializeTransaction 。正如你看到的,它接收 txidprevMetadata 作为参数。第一个参数是Storm生成的事务ID,作为批次的惟一性标识。 prevMetadata 是协调器生成的前一个事务元数据对象。

在这个例子中,首先确认有多少tweets可读。只要确认了这一点,就创建一个TransactionMetadata对象,标识读取的第一个tweet(译者注:对象属性 from ),以及读取的tweets数量(译者注:对象属性 quantity )。

元数据对象一经返回,Storm把它跟 txid 一起保存在zookeeper。这样就确保了一旦发生故障,Storm可以利用分发器(译者注: Emitter ,见下文)重新发送批次。

Emitter

创建事务性 spout 的最后一步是实现分发器(Emitter)。实现如下:

 

public static class TweetsTransactionalSpoutEmitter implements ITransactionalSpout.Emitter<TransactionMetadata> {

	RQ rq = new RQ();
	public TweetsTransactionalSpoutEmitter() {}
	@Override
    public void emitBatch(TransactionAttempt tx, TransactionMetadata coordinatorMeta, BatchOutputCollector collector) {
        rq.setNextRead(coordinatorMeta.from+coordinatorMeta.quantity);
        List<String> messages = rq.getMessages(coordinatorMeta.from,coordinatorMeta.quantity);
	long tweetId = coordinatorMeta.from;
        for (String message : messages) {
            collector.emit(new Values(tx, ""+tweetId, message));
         tweetId++;
    }
}

@Override
public void cleanupBefore(BigInteger txid) {}

@Override
public void close() {
rq.close();
}
}

 

 

分发器从数据源读取数据并从数据流组发送数据。分发器应当问题能够为相同的事务id和事务元数据发送相同的批次。这样,如果在处理批次的过程中发生了故 障,Storm就能够利用分发器重复相同的事务id和事务元数据,并确保批次已经重复过了。Storm会在 TransactionAttempt 对象里为尝试次数增加计数(译者注: attempt id )。这样就能知道批次已经重复过了。

在这里 emitBatch 是个重要方法。在这个方法中,使用传入的元数据对象从redis得到tweets,同时增加redis维持的已读tweets数。当然它还会把读到的tweets分发到拓扑。

Bolts

首先看一下这个拓扑中的标准 bolt

public class UserSplitterBolt implements IBasicBolt{
private static final long serialVersionUID = 1L;

@Override
public void declareOutputFields(OutputFieldsDeclarer declarer) {
declarer.declareStream("users", new Fields("txid","tweet_id","user"));
}

@Override
public Map<String, Object> getComponentConfiguration() {
return null;
}

@Override
public void prepare(Map stormConf, TopologyContext context) {}

@Override
public void execute(Tuple input, BasicOutputCollector collector) {
String tweet = input.getStringByField("tweet");
String tweetId = input.getStringByField("tweet_id");
StringTokenizer strTok = new StringTokenizer(tweet, " ");
HashSet<String> users = new HashSet<String>();

while(strTok.hasMoreTokens()) {
String user = strTok.nextToken();

//确保这是个真实的用户,并且在这个tweet中没有重复
if(user.startsWith("@") && !users.contains(user)) {
collector.emit("users", new Values(tx, tweetId, user));
users.add(user);
}
}
}

@Override
public void cleanup(){}
}

 

正如本章前面提到的, UserSplitterBolt 接收元组,解析tweet文本,分发@开头的单词————tweeter用户。 HashtagSplitterBolt 的实现也非常相似。

public class HashtagSplitterBolt implements IBasicBolt{
private static final long serialVersionUID = 1L;

@Override
public void declareOutputFields(OutputFieldsDeclarer declarer) {
declarer.declareStream("hashtags", new Fields("txid","tweet_id","hashtag"));
}

@Override
public Map<String, Object> getComponentConfiguration() {
return null;
}

@Override
public void prepare(Map stormConf, TopologyContext context) {}

@Oerride
public void execute(Tuple input, BasicOutputCollector collector) {
String tweet = input.getStringByField("tweet");
String tweetId = input.getStringByField("tweet_id");
StringTokenizer strTok = new StringTokenizer(tweet, " ");
TransactionAttempt tx = (TransactionAttempt)input.getValueByField("txid");
HashSet<String> words = new HashSet<String>();

while(strTok.hasMoreTokens()) {
String word = strTok.nextToken();

if(word.startsWith("#") && !words.contains(word)){
collector.emit("hashtags", new Values(tx, tweetId, word));
words.add(word);
}
}
}

@Override
public void cleanup(){}
}

 

现在看看 UserHashTagJoinBolt 的实现。首先要注意的是它是一个 BaseBatchBolt 。这意味着, execute 方法会操作接收到的元组,但是不会分发新的元组。批次完成时,Storm会调用 finishBatch 方法。

public void execute(Tuple tuple) {
String source = tuple.getSourceStreamId();
String tweetId = tuple.getStringByField("tweet_id");

if("hashtags".equals(source)) {
String hashtag = tuple.getStringByField("hashtag");
add(tweetHashtags, tweetId, hashtag);
} else if("users".equals(source)) {
String user = tuple.getStringByField("user");
add(userTweets, user, tweetId);
}
}

 

既然要结合tweet中提到的用户为出现的所有话题计数,就需要加入前面的 bolts 创建的两个数据流组。这件事要以批次为单位进程,在批次处理完成时,调用 finishBatch 方法。

@Override
public void finishBatch() {
for(String user:userTweets.keySet()){
Set<String> tweets = getUserTweets(user);
HashMap<String, Integer> hashtagsCounter = new HashMap<String, Integer>();
for(String tweet:tweets){
Set<String> hashtags=getTweetHashtags(tweet);
if(hashtags!=null){
for(String hashtag:hashtags){
Integer count=hashtagsCounter.get(hashtag);
if(count==null){count=0;}
count++;
hashtagsCounter.put(hashtag,count);
}
}
}
for(String hashtag:hashtagsCounter.keySet()){
int count=hashtagsCounter.get(hashtag);
collector.emit(new Values(id,user,hashtag,count));
}
}
}

 

这个方法计算每对用户-话题出现的次数,并为之生成和分发元组。

你可以在GitHub上找到并下载完整代码。(译者注:https://github.com/storm-book/examples-ch08-transactional-topologies这个仓库里没有代码,谁知道哪里有代码麻烦说一声。)

提交者 bolts

我们已经学习了,批次通过协调器和分发器怎样在拓扑中传递。在拓扑中,这些批次中的元组以并行的,没有特定次序的方式处理。

协调者bolts 是一类特殊的批处理 bolts ,它们实现了 IComh mitter 或者通过 TransactionalTopologyBuilder 调用 setCommiterBolt 设置了提交者 bolt 。它们与其它的批处理 bolts 最大的不同在于,提交者 boltsfinishBatch 方法在提交就绪时执行。这一点发生在之前所有事务都已成功提交之后。另外, finishBatch 方法是顺序执行的。因此如果同时有事务ID1和事务ID2两个事务同时执行,只有在ID1没有任何差错的执行了 finishBatch 方法之后,ID2才会执行该方法。

下面是这个类的实现

 

public class RedisCommiterCommiterBolt extends BaseTransactionalBolt implements ICommitter {
public static final String LAST_COMMITED_TRANSACTION_FIELD = "LAST_COMMIT";
TransactionAttempt id;
BatchOutputCollector collector;
Jedis jedis;

@Override
public void prepare(Map conf, TopologyContext context, 
BatchOutputCollector collector, TransactionAttempt id) {
this.id = id;
this.collector = collector;
this.jedis = new Jedis("localhost");
}

HashMap<String, Long> hashtags = new HashMap<String,Long>();
HashMap<String, Long> users = new HashMap<String, Long>();
HashMap<String, Long> usersHashtags = new HashMap<String, Long>();

private void count(HashMap<String, Long> map, String key, int count) {
Long value = map.get(key);
if(value == null){value = (long)0;}
value += count;
map.put(key,value);
}

@Override
public void execute(Tuple tuple) {
String origin = tuple. getSourceComponent();
if("sers-splitter".equals(origin)) {
String user = tuple.getStringByField("user");
count(users, user, 1);
} else if("hashtag-splitter".equals(origin)) {
String hashtag = tuple.getStringByField("hashtag");
count(hashtags, hashtag, 1);
} else if("user-hashtag-merger".quals(origin)) {
String hashtag = tuple.getStringByField("hashtag");
String user = tuple.getStringByField("user");
String key = user + ":" + hashtag;
Integer count = tuple.getIntegerByField("count");
count(usersHashtags, key, count);
}
}

@Override
public void finishBatch() {
String lastCommitedTransaction = jedis.get(LAST_COMMITED_TRANSACTION_FIELD);
String currentTransaction = ""+id.getTransactionId();

if(currentTransaction.equals(lastCommitedTransaction)) {return;}

Transaction multi = jedis.multi();

multi.set(LAST_COMMITED_TRANSACTION_FIELD, currentTransaction);

Set<String> keys = hashtags.keySet();
for (String hashtag : keys) {
Long count = hashtags.get(hashtag);
//$redis->hIncrBy('h', 'x', 2);
//将名称为h的hash中x的value增加2
multi.hincrBy("hashtags", hashtag, count);
}

keys = users.keySet();
for (String user : keys) {
Long count =users.get(user);
multi.hincrBy("users",user,count);
}

keys = usersHashtags.keySet();
for (String key : keys) {
Long count = usersHashtags.get(key);
multi.hincrBy("users_hashtags", key, count);
}

multi.exec();
}

@Override
public void declareOutputFields(OutputFieldsDeclarer declarer) {}
}

 

 

这个实现很简单,但是在 finishBatch 有一个细节。

...
multi.set(LAST_COMMITED_TRANSACTION_FIELD, currentTransaction);
...

 

在这里向数据库保存提交的最后一个事务ID。为什么要这样做?记住,如果事务失败了,Storm将会尽可能多的重复必要的次数。如果你不确定已经处理了这个事务,你就会多算,事务拓扑也就没有用了。所以请记住:保存最后提交的事务ID,并在提交前检查。

分区的事务 Spouts
对一个 spout 来说,从一个分区集合中读取批次是很普通的。接着这个例子,你可能有很多redis数据库,而tweets可能会分别保存在这些redis数据库里。通过实现 IPartitionedTransactionalSpout ,Storm提供了一些工具用来管理每个分区的状态并保证重播的能力。
下面我们修改 TweetsTransactionalSpout ,使它可以处理数据分区。
首先,继承 BasePartitionedTransactionalSpout ,它实现了 IPartitionedTransactionalSpout

public class TweetsPartitionedTransactionalSpout extends 
       BasePartitionedTransactionalSpout<TransactionMetadata> {
...
}

 

然后告诉Storm谁是你的协调器。

public static class TweetsPartitionedTransactionalCoordinator implements Coordinator {
@Override
public int numPartitions() {
return 4;
}

@Override
public boolean isReady() {
return true;
}

@Override
public void close() {}
}

 

在这个例子里,协调器很简单。numPartitions方法,告诉Storm一共有多少分区。而且你要注意,不要返回任何元数据。对于 IPartitionedTransactionalSpout ,元数据由分发器直接管理。
下面是分发器的实现:

 

public static class TweetsPartitionedTransactionalEmitter 
       implements Emitter<TransactionMetadata> {
    PartitionedRQ rq = new ParttionedRQ();

    @Override
    public TransactionMetadata emitPartitionBatchNew(TransactionAttempt tx, 
    BatchOutputCollector collector, int partition, 
    TransactionMetadata lastPartitioonMeta) {
long nextRead;

if(lastPartitionMeta == null) {
    nextRead = rq.getNextRead(partition);
}else{
    nextRead = lastPartitionMeta.from + lastPartitionMeta.quantity;
    rq.setNextRead(partition, nextRead); //移动游标
}

long quantity = rq.getAvailableToRead(partition, nextRead);
quantity = quantity > MAX_TRANSACTION_SIZE ? MAX_TRANSACTION_SIZE : quantity;
TransactionMetadata metadata = new TransactionMetadata(nextRead, (int)quantity);

emitPartitionBatch(tx, collector, partition, metadata);
return metadata;
    }

    @Override
    public void emitPartitionBatch(TransactionAttempt tx, BatchOutputCollector collector, 
    int partition, TransactionMetadata partitionMeta) {
if(partitionMeta.quantity <= 0){
    return;
}

List<String> messages = rq.getMessages(partition, partitionMeta.from,
       partitionMeta.quantity);

long tweetId = partitionMeta.from;
for (String msg : messages) {
    collector.emit(new Values(tx, ""+tweetId, msg));
    tweetId++;
}
    }

    @Override
    public void close() {}
}

 

 

这里有两个重要的方法, emitPartitionBatchNew ,和 emitPartitionBatch 。对于 emitPartitionBatchNew ,从Storm接收分区参数,该参数决定应该从哪个分区读取批次。在这个方法中,决定获取哪些tweets,生成相应的元数据对象,调用 emitPartitionBatch ,返回元数据对象,并且元数据对象会在方法返回时立即保存到zookeeper。
Storm会为每一个分区发送相同的事务ID,表示一个事务贯穿了所有数据分区。通过 emitPartitionBatch 读取分区中的tweets,并向拓扑分发批次。如果批次处理失败了,Storm将会调用 emitPartitionBatch 利用保存下来的元数据重复这个批次。

NOTE: 完整的源码请见: https://github.com/storm-book/examples-ch08-transactional-topologies (译者注:原文如此,实际上这个仓库里什么也没有)

模糊的事务性拓扑

到目前为止,你可能已经学会了如何让拥有相同事务ID的批次在出错时重播。但是在有些场景下这样做可能就不太合适了。然后会发生什么呢?

事实证明,你仍然可以实现在语义上精确的事务,不过这需要更多的开发工作,你要记录由Storm重复的事务之前的状态。既然能在不同时刻为相同的事务ID得到不同的元组,你就需要把事务重置到之前的状态,并从那里继续。

比如说,如果你为收到的所有tweets计数,你已数到5,而最后的事务ID是321,这时你多数了8个。你要维护以下三个值—— previousCount=5,currentCount=13,以及lastTransactionId=321。假设事物ID321又发分了一次, 而你又得到了4个元组,而不是之前的8个,提交器会探测到这是相同的事务ID,它将会把结果重置到 previousCount 的值5,并在此基础上加4,然后更新 currentCount 为9。

另外,在之前的一个事务被取消时,每个并行处理的事务都要被取消。这是为了确保你没有丢失任何数据。

你的 spout 可以实现 IOpaquePartitionedTransactionalSpout ,而且正如你看到的,协调器和分发器也很简单。

public static class TweetsOpaquePartitionedTransactionalSpoutCoordinator implements IOpaquePartitionedTransactionalSpout.Coordinator {
@Override
public boolean isReady() {
return true;
}
}

public static class TweetsOpaquePartitionedTransactionalSpoutEmitter 
   implements IOpaquePartitionedTransactionalSpout.Emitter<TransactionMetadata> {
PartitionedRQ rq  = new PartitionedRQ();

@Override
public TransactionMetadata emitPartitionBatch(TransactionAttempt tx, 
   BatchOutputCollector collector, int partion,
   TransactionMetadata lastPartitonMeta) {
long nextRead;

if(lastPartitionMeta == null) {
nextRead = rq.getNextRead(partition);
}else{
nextRead = lastPartitionMeta.from + lastPartitionMeta.quantity;
rq.setNextRead(partition, nextRead);//移动游标
}

long quantity = rq.getAvailabletoRead(partition, nextRead);
quantity = quantity > MAX_TRANSACTION_SIZE ? MAX_TRANSACTION_SIZE : quantity;
TransactionMetadata metadata = new TransactionMetadata(nextRead, (int)quantity);
emitMessages(tx, collector, partition, metadata);
return metadata;
}

private void emitMessage(TransactionAttempt tx, BatchOutputCollector collector, 
 int partition, TransactionMetadata partitionMeta) {
if(partitionMeta.quantity <= 0){return;}

List<String> messages = rq.getMessages(partition, partitionMeta.from, partitionMeta.quantity);
long tweetId = partitionMeta.from;
for(String msg : messages) {
collector.emit(new Values(tx, ""+tweetId, msg));
tweetId++;
}
}

@Override
public int numPartitions() {
return 4;
}

@Override
public void close() {}
}

 

最有趣的方法是 emitPartitionBatch ,它获取之前提交的元数据。你要用它生成批次。这个批次不需要与之前的那个一致,你可能根本无法创建完全一样的批次。剩余的工作由提交器 bolts 借助之前的状态完成。

 

  • 大小: 48.7 KB
分享到:
评论

相关推荐

    YOLOv12:以注意力为中心的实时目标检测器.pdf

    YOLOv12:以注意力为中心的实时目标检测器

    GO语言基础语法指令教程

    GO语言基础语法指令教程

    MATLAB代码实现:分布式电源接入对配电网运行影响深度分析与评估,MATLAB代码分析:分布式电源接入对配电网运行影响评估,MATLAB代码:分布式电源接入对配电网影响分析 关键词:分布式电源 配电

    MATLAB代码实现:分布式电源接入对配电网运行影响深度分析与评估,MATLAB代码分析:分布式电源接入对配电网运行影响评估,MATLAB代码:分布式电源接入对配电网影响分析 关键词:分布式电源 配电网 评估 参考文档:《自写文档,联系我看》参考选址定容模型部分; 仿真平台:MATLAB 主要内容:代码主要做的是分布式电源接入场景下对配电网运行影响的分析,其中,可以自己设置分布式电源接入配电网的位置,接入配电网的有功功率以及无功功率的大小,通过牛顿拉夫逊法求解分布式电源接入后的电网潮流,从而评价分布式电源接入前后的电压、线路潮流等参数是否发生变化,评估配电网的运行方式。 代码非常精品,是研究含分布式电源接入的电网潮流计算的必备程序 ,分布式电源; 配电网; 接入影响分析; 潮流计算; 牛顿拉夫逊法; 电压评估; 必备程序。,基于MATLAB的分布式电源对配电网影响评估系统

    三相光伏并网逆变器:Mppt最大功率跟踪与800V中间母线电压的电力转换技术,三相光伏并网逆变器:实现最大功率跟踪与800V中间母线电压的优化处理,三相光伏并网逆变器 输入光伏Mppt 最大功率跟踪

    三相光伏并网逆变器:Mppt最大功率跟踪与800V中间母线电压的电力转换技术,三相光伏并网逆变器:实现最大功率跟踪与800V中间母线电压的优化处理,三相光伏并网逆变器 输入光伏Mppt 最大功率跟踪中间母线电压800V 后级三相光伏并网逆变器 ,三相光伏并网逆变器; 输入光伏Mppt; 最大功率跟踪; 中间母线电压800V; 后级逆变器,三相光伏并网逆变器:MPPT最大功率跟踪800V母线电压

    基于SSM的车位销售平台设计与实现.zip(毕设&课设&实训&大作业&竞赛&项目)

    项目工程资源经过严格测试运行并且功能上ok,可实现复现复刻,拿到资料包后可实现复现出一样的项目,本人系统开发经验充足(全栈全领域),有任何使用问题欢迎随时与我联系,我会抽时间努力为您解惑,提供帮助 【资源内容】:包含源码+工程文件+说明等。答辩评审平均分达到96分,放心下载使用!可实现复现;设计报告也可借鉴此项目;该资源内项目代码都经过测试运行,功能ok 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 【提供帮助】:有任何使用上的问题欢迎随时与我联系,抽时间努力解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 下载后请首先打开说明文件(如有);整理时不同项目所包含资源内容不同;项目工程可实现复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用

    西门子博途三部十层电梯程序案例解析:基于Wincc RT Professional V14及更高版本的应用探索,西门子博途三部十层电梯程序案例解析:基于Wincc RT Professional画面与

    西门子博途三部十层电梯程序案例解析:基于Wincc RT Professional V14及更高版本的应用探索,西门子博途三部十层电梯程序案例解析:基于Wincc RT Professional画面与V14及以上版本技术参考,西门子1200博途三部十层电梯程序案例,加Wincc RT Professional画面三部十层电梯程序,版本V14及以上。 程序仅限于参考资料使用。 ,西门子;1200博途;三部十层电梯程序案例;Wincc RT Professional;V14以上程序版本。,西门子V14+博途三部十层电梯程序案例:Wincc RT Pro专业画面技术解析

    基于舆情数据的知识图谱推荐可视化系统论文,全原创,免费分享

    基于舆情数据的知识图谱推荐可视化系统论文,全原创,免费分享

    基于Vivado源码的AM包络检调制解调与FIR滤波器设计在FPGA上的实现,基于Zynq-7000和Artix-7系列的AM包络检调制解调源码及Vivado环境下的实现,AM包络检调制解调,Viva

    基于Vivado源码的AM包络检调制解调与FIR滤波器设计在FPGA上的实现,基于Zynq-7000和Artix-7系列的AM包络检调制解调源码及Vivado环境下的实现,AM包络检调制解调,Vivado源码 FPGA的AM调制解调源码,其中FIR滤波器根据MATLAB设计。 【AM_jietiao】文件是基于zynq-7000系列,但没有涉及AD与DA,只是单纯的仿真。 【AM包络检调制解调_Vivado源码】文件基于Artix-7系列,从AD读入信号后,进行AM调制,并解调DA输出。 ,AM包络检调制解调;Vivado源码;FPGA;AM调制解调源码;FIR滤波器;MATLAB设计;Zynq-7000系列;Artix-7系列;AD读入信号;DA输出,AM包络调制解调源码:Zynq-7000与Artix-7 FPGA的不同实现

    rdtyfv、ijij

    yugy

    2025山东大学:DeepSeek应用与部署(部署方案大全+API调用+业务应用)-80页.pptx

    2025山东大学:DeepSeek应用与部署(部署方案大全+API调用+业务应用)-80页.pptx

    chromedriver-mac-x64-135.0.7023.0(Dev).zip

    chromedriver-mac-x64-135.0.7023.0(Dev).zip

    基于单片机protues仿真的433MHz无线模块编解码收发通信测试(仿真图、源代码)

    基于单片机protues仿真的433MHz无线模块编解码收发通信测试(仿真图、源代码) 该设计为单片机protues仿真的433MHz无线模块收发通信测试; 1、433M超再生收发模块; 2、在仿真图中是把发射MCU的P2_7腿直接输入到接收MCU的INT0实现编码解码的; 3、通过433MHz无线模块实现无线通信的编解码功能; 4、按键控制指令; 5、液晶屏显示收发状态和信息;

    车机安卓版好用的应用管理app

    资源说说明; 自带文件管理 adb操作以及应用管理等等的功能。 操作性对比其他应用较好。 参阅博文: https://blog.csdn.net/mg668/article/details/145689511?spm=1001.2014.3001.5352

    软件工程课程设计前端.zip

    项目工程资源经过严格测试运行并且功能上ok,可实现复现复刻,拿到资料包后可实现复现出一样的项目,本人系统开发经验充足(全栈全领域),有任何使用问题欢迎随时与我联系,我会抽时间努力为您解惑,提供帮助 【资源内容】:包含源码+工程文件+说明等。答辩评审平均分达到96分,放心下载使用!可实现复现;设计报告也可借鉴此项目;该资源内项目代码都经过测试运行,功能ok 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 【提供帮助】:有任何使用上的问题欢迎随时与我联系,抽时间努力解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 下载后请首先打开说明文件(如有);整理时不同项目所包含资源内容不同;项目工程可实现复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用

    智慧图书管理系统(源码+数据库+论文)java开发springboot框架javaweb,可做计算机毕业设计或课程设计

    智慧图书管理系统(源码+数据库+论文)java开发springboot框架javaweb,可做计算机毕业设计或课程设计 【功能需求】 本系统分为读者、管理员2个角色 读者可以进行注册登录、浏览图书以及留言、图书借阅、图书归还、图书续借、个人中心、论坛交流、等功能 管理员可以进行读者管理、图书管理、论坛论坛回复管理、图书借阅管理(下架、库存管理、修改、删除)、轮播图管理 【环境需要】 1.运行环境:最好是java jdk 1.8,我们在这个平台上运行的。其他版本理论上也可以。 2.IDE环境:IDEA,Eclipse,Myeclipse都可以。 3.tomcat环境:Tomcat 7.x,8.x,9.x版本均可 4.数据库:MySql 5.7/8.0等版本均可; 【购买须知】 本源码项目经过严格的调试,项目已确保无误,可直接用于课程实训或毕业设计提交。里面都有配套的运行环境软件,讲解视频,部署视频教程,一应俱全,可以自己按照教程导入运行。附有论文参考,使学习者能够快速掌握系统设计和实现的核心技术。

    三相APFC电路与单相Boost PFC电路仿真模型:电压外环电流内环双闭环控制研究,三相电路仿真模型:探索APFC电路、单相PFC电路及BoostPFC电路的动态特性与双闭环控制策略,APFC电路

    三相APFC电路与单相Boost PFC电路仿真模型:电压外环电流内环双闭环控制研究,三相电路仿真模型:探索APFC电路、单相PFC电路及BoostPFC电路的动态特性与双闭环控制策略,APFC电路,单相PFC电路,单相BoostPFC电路仿真模型。 网侧220V 50Hz,输出电压设置为50Hz。 电压外环电流内环双闭环控制仿真模型 ,APFC电路; 单相PFC电路; 单相BoostPFC电路仿真模型; 网侧电压; 220V 50Hz; 输出电压50Hz; 电压外环电流内环双闭环控制仿真模型。,基于APFC电路的单相Boost PFC仿真模型:网侧电压220V/50Hz下电压电流双闭环控制的研究与应用

    MATLAB环境下ADMM算法在分布式调度中的应用:比较并行与串行算法(Jocobi与Gaussian Seidel)的优化效果与实现细节-基于YALMIP和GUROBI的仿真平台复刻参考文档的研究

    MATLAB环境下ADMM算法在分布式调度中的应用:比较并行与串行算法(Jocobi与Gaussian Seidel)的优化效果与实现细节——基于YALMIP和GUROBI的仿真平台复刻参考文档的研究结果。,MATLAB下ADMM算法在分布式调度中的并行与串行算法应用:基于YALMIP与GUROBI的仿真研究,MATLAB代码:ADMM算法在分布式调度中的应用 关键词:并行算法(Jocobi)和串行算法(Gaussian Seidel, GS) 参考文档:《主动配电网分布式无功优化控制方法》《基于串行和并行ADMM算法的电-气能量流分布式协同优化》 仿真平台:MATLAB YALMIP GUROBI 主要内容:ADMM算法在分布式调度中的应用 复刻参考文档 ,关键词:ADMM算法; 分布式调度; 并行算法(Jocobi); 串行算法(Gaussian Seidel, GS); MATLAB代码; YALMIP; GUROBI; 主动配电网; 无功优化控制方法; 能量流分布式协同优化。,MATLAB实现:ADMM算法在分布式调度中的并行与串行优化应用

    “考虑P2G、碳捕集与碳交易机制的综合能源系统优化调度模型研究”,考虑电转气P2G与碳捕集设备的热电联供综合能源系统优化调度模型研究(含碳交易机制与四种算例场景分析),考虑P2G和碳捕集设备的热电联供

    “考虑P2G、碳捕集与碳交易机制的综合能源系统优化调度模型研究”,考虑电转气P2G与碳捕集设备的热电联供综合能源系统优化调度模型研究(含碳交易机制与四种算例场景分析),考虑P2G和碳捕集设备的热电联供综合能源系统优化调度模型 摘要:代码主要做的是一个考虑电转气P2G和碳捕集设备的热电联供综合能源系统优化调度模型,模型耦合CHP热电联产单元、电转气单元以及碳捕集单元,并重点考虑了碳交易机制,建立了综合能源系统运行优化模型,与目前市面上的代码不同,本代码完全复现了文档中所提出的四种算例场景,没有对比算例,买过去也没有任何意义,四种算例主要包括: 1)t不包括P2G、CCS、以及碳交易 2)t包括P2G,但是不包括CCS以及碳交易 3)t包括P2G和CCS,但是不包括碳交易 4)t包括P2G、CCS以及碳交易 且最终的实现效果与文档进行对比后,虽然数值无法100%一致,但是结果以及数值曲线,几乎完全一样,此版本为目前市面上最好的园区综合能源调度代码,没有之一 ,考虑电转气(P2G); 碳捕集设备; 热电联供综合能源系统; 优化调度模型; 碳交易机制; CHP热电联产单元; 耦合模型; 算

    FS-LDM培训材料(DAY_2)_NCR数据仓库事业部.ppt

    FS-LDM培训材料(DAY_2)_NCR数据仓库事业部.ppt

    专题 平面向量的数量积(学生版)20250222.pdf

    专题 平面向量的数量积(学生版)20250222.pdf

Global site tag (gtag.js) - Google Analytics