`
海浪儿
  • 浏览: 275165 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

NIO+reactor模式的网路服务器设计方案

阅读更多

NIO+reactor 模式的网路服务器设计方案

 


 

 

1、前言

 

       在前一篇文章中,介绍了基于 BlockingIO +thread-per-connection 的方案,由于该方案为每一个连接分配一个线程,而线程里的大部分操作都是阻塞式的,所以在高并发的情况下,会导致产生大量的线程,线程间的上下文切换会浪费大量的 CPU 时间,而且每个线程是需要占用堆栈空间的,所以服务器能分配的线程数量也是有限的,当客户端的并发访问量达到一定的数量级后,服务器的资源就会耗尽,可伸缩性差。

 


 

 

根据上面的分析,要提高网络服务器的可伸缩性,就必须解决两个问题:

 

  • 服务端的线程数量不能按照客户端连接数的增大而成线性增长,但又必须能够并发的响应不断增加的客户端请求
  • 线程里的操作逻辑不能是阻塞式的

 

因此, java1.4 引入了非阻塞式 NIO Non-blocking IO , 解决了问题 2 ;而采用基于异步事件通知的 reactor 模式则可以仅仅用一个线程来并发的为多个连接服务,这样就解决了问题 1

 


 

 

2、Reactor 模式

 


 

 

2.1 示例

 


 

 

     首先举一个生活中的例子来比较 thread-per-connection reactor方案

 


 

 

某火车票售票厅,只有 1 个售票窗口工作。两个乘客 a b 先后来购票,由于 a 先到,所以售票窗口先为 a 服务, b 只能排队

 

  • thread-per-connection

 

    乘客 a与售票窗口开始沟通时,就相当于在客户端(乘客 a)与服务端(售票厅)之间建立了一个 connection,服务端为每一个 connection分配一个 thread(售票窗口)。当没有 thread可以分配时,后续的客户端请求(乘客 b)就不能及时响应了,所以 b只能排队。假设存在这种场景,售票窗口的服务员告诉乘客 a票价后,乘客 a准备付款时发现自己忘记了带钱包,所以乘客 a打电话给家里人让他们把钱包送过来,但从 a的家步行到售票厅需要 5分钟,于是售票窗口的服务员就一直等着(被阻塞),但又不为乘客 b服务,因为她的做事风格( thread-per-connection)是一定要为一个乘客完完整整服务完后才能接着服务下一位乘客。

 


 

 

   这种情况下,乘客 b 肯定会抱怨,而且 5 分钟后, b 的后面也肯定排了很多人,售票厅发现这种情况后,就只能选择再打开一个售票窗口(分配一个 thread )为 b 服务,但 b 后面的人也只能排队。之前那个窗口的服务员一直等着,又不干活,但工资还是照样拿,所以售票厅(服务端)的开销很大。

 


 

 

  • Reactor

 

    服务员在等待 a 取钱包的过程中,被通知乘客 b 要求服务,所以窗口和 b 建立连接,悲剧的是 b 也没有带钱包,需要家里人送来。此时服务员又被通知 a 的钱包送过来了,所以窗口接着为 a 服务,出票完成后,服务员又被通知 b 的钱包送过来了,所以接着又为 b 服务。这样,售票厅(服务端)的开销就小了,现在只需要一个窗口就可以搞定所有事情。

 


 

 


 

 


 

 

2.2 Reactor 模式的思想:分而治之 + 事件驱动

 

  • 分而治之:

 

    一个 connection里发生的完整的网络处理过程一般分为 accept read decode compute encode send这几步。 Reactor将每个步骤映射为一个 task,服务端端的线程执行的最小逻辑单元不再是一次完整的网络处理过程,而是更小的 task,且采用非阻塞的执行方式;

 

  • 事件驱动:

 

   每个 task对应一个特定的事件,当 task准备就绪时,对应的事件通知就会发出。 Reactor收到事件后,分发给绑定了对应事件的 Handler执行 task

 


 

 


 

 

下图描述了单线程版本的 reactor 模式结构图。

 

 

关键概念:

 

  • Reactor:负责响应事件,分发给绑定了该事件的 handler执行 task
  • Handler:绑定了某类事件,负责执行该事件对应的 task
  • Acceptor Handler 的一种,绑定了 connect 事件。它在系统启动的时候就已经绑定了 connnect 事件,并注册到 reactor 中。当有客户端发起 connect 请求时, reactor 会收到 accept 事件,然后分发给 acceptor acceptor 首先会 accept 新的连接,然后新建一个 handler ,将其与该连接上得 read 事件绑定,并注册到 reactor 中。

 

2.3 基于 reactor 的网络交互

 

  1. 客户端连接服务器过程

 

 

1)      服务器将绑定了 accept事件的 Acceptor注册到 Reactor中,准备 accept新的 connection;

 

2)      服务器启动 Reactor的事件循环处理功能(注意:该循环会阻塞,直到收到事件)

 

3)      客户端 connect服务器

 

4)      Reactor响应 accept事件,分发给 Acceptor Acceptor 确定建立一个新的连接。

 

5)      Acceptor创建一个 handler专门服务该 connection后续的请求;

 

6)      Handler绑定该 connection read事件,并将自己注册到 Reactor

 


 

 

  1. 服务器处理客户端请求过程

 

1)      客户端发送请求

 

2)      当客户端的请求数据到达服务器时, Reactor响应 read事件,分发给绑定了 read事件的 handler(即上面第 6步创建的 handler

 

3)      Handler执行 task,读取客户端的请求数据(此处是非阻塞读,即如果当前操作会导致当前线程阻塞,当前操作会立即返回,并重复执行第 2 3步,直到客户端的请求读取完毕。)

 

4)      解析客户端请求数据

 

5)      读取文件

 

6)      Handler重新绑定 write事件

 

7)      connection可以开始 write的时候, Reactor响应 write事件,分发给绑定了 write事件的 handler

 

8)    Handler 执行 task ,向客户端发送文件(此处是非阻塞写,即如果当前操作会导致当前线程阻塞,当前操作会立即返回,并重复执行第 7 8 步,直到文件全部发送完毕。)

 


 

 

注意:上述两个过程都是在服务器的一个线程里完成的,该线程响应所有客户端的请求。譬如服务端在处理客户端 A 的请求时,如果在第 2 read 事件还没有就绪(或者在第 3 步读取数据的时候发生阻塞了),则该线程会立即重新回到客户端连接服务器过程的第 2 步(即事件循环处理),等待新的事件通知。如果此时客户端 B 请求连接,则该线程会响应 B 的连接请求,这样就实现了一个线程同时为多个连接服务的效果。

 


 

 

3、 代码示例

 


 

 

3.1 NIO的几个关键概念

 

  • Selector

 

Reactor里的一个核心组成部分,通过调用 selector.select()方法,可以知道感兴趣的 IO事件里哪些已经 ready,该方法是阻塞的,直到有 IO事件 ready;通过调用 selector.selectedKeys()方法,可以获取到 selectionKey对象,这些对象关联有已经 ready IO事件。

 

  • SelectionKey

 

selector注册一个 channel时,会产生一个该对象,譬如SelectionKey selectionKey = channel .register(selector, SelectionKey. OP_ACCEPT );它维护着 channel selector IO 事件、 Handler 之间的关系。通过调用 attach 方法,可以绑定一个 handler ,譬如: selectionKey.attach(new Acceptor());

 

  • ServerSocketChannel

 

        类似于 ServerSocket,唯一的区别在于: ServerSocketChannel可以使用 selector,而且可以设置为非阻塞模式。

 

  • SocketChannel

 

        类似于 Socket,唯一的区别在于: SocketChannel可以使用 selector,而且可以设置为非阻塞模式。

 

  • ByteBuffer :数据缓冲器,是 NIO 里将数据移入移出 channel 的唯一方式

 


 

 

3.2 code

注:所有代码只用来作为原理的进一步阐述,不能用于生产环境

服务端代码如下(单线程版本)

import java.io.IOException;
import java.net.InetAddress;
import java.net.InetSocketAddress;
import java.nio.channels.SelectionKey;
import java.nio.channels.Selector;
import java.nio.channels.ServerSocketChannel;
import java.nio.channels.SocketChannel;
import java.nio.channels.spi.SelectorProvider;
import java.util.Iterator;


/**
 * @author jason
 * 
 */
public class NioServer implements Runnable {

	private InetAddress hostAddress;
	private int port;

	private ServerSocketChannel serverChannel;

	private Selector selector;

	public NioServer(InetAddress hostAddress, int port) throws IOException {
		this.hostAddress = hostAddress;
		this.port = port;
		// 初始化selector,绑定服务端监听套接字、感兴趣事件及对应的handler
		this.selector = initSelector();
	}

	public static void main(String[] args) {
		try {
			// 启动服务器
			new Thread(new NioServer(null, 9090)).start();
		} catch (IOException e) {
			e.printStackTrace();
		}
	}

	@Override
	public void run() {
		while (true) {
			try {
				// 选择事件已经ready的selectionKey,该方法是阻塞的,只有当至少存在selectionKey,或者wakeup方法被调用,或者当前线程被中断,才会返回
				selector.select();
				// 循环处理每一个事件
				Iterator<SelectionKey> items = selector.selectedKeys()
						.iterator();
				while (items.hasNext()) {
					SelectionKey key = (SelectionKey) items.next();
					items.remove();

					if (!key.isValid()) {
						continue;
					}
					// 事件处理分发
					dispatch(key);
				}

			} catch (Exception e) {
				e.printStackTrace();
			}
		}

	}

	/**
	 * 事件处理分发
	 * 
	 * @param sk
	 *            已经ready的selectionKey
	 */
	private void dispatch(SelectionKey sk) {
		// 获取绑定的handler
		Runnable r = (Runnable) sk.attachment();
		if (r != null) {
			r.run();
		}
	}

	/**
	 * 初始化selector,绑定服务端监听套接字、感兴趣事件及对应的handler
	 * 
	 * @return
	 * @throws IOException
	 */
	private Selector initSelector() throws IOException {
		// 创建一个selector
		Selector socketSelector = SelectorProvider.provider().openSelector();
		// 创建并打开ServerSocketChannel
		serverChannel = ServerSocketChannel.open();
		// 设置为非阻塞
		serverChannel.configureBlocking(false);
		// 绑定端口
		serverChannel.socket().bind(new InetSocketAddress(hostAddress, port));
		// 用selector注册套接字,并返回对应的SelectionKey,同时设置Key的interest set为监听客户端连接事件
		SelectionKey selectionKey = serverChannel.register(socketSelector,
				SelectionKey.OP_ACCEPT);
		// 绑定handler
		selectionKey.attach(new Acceptor());

		return socketSelector;
	}

	/**
	 * 处理OP_ACCEPT事件的handler
	 * 
	 */
	class Acceptor implements Runnable {
		@Override
		public void run() {
			try {
				accept();
			} catch (IOException e) {
				e.printStackTrace();
			}

		}

		private void accept() throws IOException {
			System.out.println("connect");
			// 建立连接
			SocketChannel socketChannel = serverChannel.accept();
			System.out.println("connected");
			// 设置为非阻塞
			socketChannel.configureBlocking(false);
			// 创建Handler,专门处理该连接后续发生的OP_READ和OP_WRITE事件
			new Handler(selector, socketChannel);
		}

	}

}

 

handler代码如下

import java.io.IOException;
import java.nio.ByteBuffer;
import java.nio.channels.SelectionKey;
import java.nio.channels.Selector;
import java.nio.channels.SocketChannel;

/**
 * @author jason
 * 
 */
final class Handler implements Runnable {
	final SocketChannel socketChannel;
	final SelectionKey key;
	static final int MAXIN = 8192, MAXOUT = 11240 * 1024;
	ByteBuffer readBuffer = ByteBuffer.allocate(MAXIN);
	ByteBuffer outBuffer = ByteBuffer.allocate(MAXOUT);
	static final int READING = 0;
	static final int SENDING = 1;
	int state = READING;

	Handler(Selector selector, SocketChannel socketChannel) throws IOException {
		this.socketChannel = socketChannel;
		// 用selector注册套接字,并返回对应的SelectionKey,同时设置Key的interest set为监听该连接上得read事件
		this.key = socketChannel.register(selector, SelectionKey.OP_READ);
		// 绑定handler
		this.key.attach(this);
	}

	/**
	 * 处理write
	 * 
	 * @throws IOException
	 */
	private void write() throws IOException {
		socketChannel.write(outBuffer);
		if (outBuffer.remaining() > 0) {
			return;
		}
		state = READING;
		key.interestOps(SelectionKey.OP_READ);
	}

	/**
	 * 处理read
	 * 
	 * @throws IOException
	 */
	private void read() throws IOException {
		readBuffer.clear();
		int numRead;
		try {
			// 读取数据
			numRead = socketChannel.read(readBuffer);
		} catch (Exception e) {
			key.cancel();
			socketChannel.close();
			return;
		}

		if (numRead == -1) {
			socketChannel.close();
			key.cancel();
			return;
		}
		// 处理数据
		process(numRead);

	}

	/**
	 * 处理数据
	 * 
	 * @param numRead
	 */
	private void process(int numRead) {
		byte[] dataCopy = new byte[numRead];
		System.arraycopy(readBuffer.array(), 0, dataCopy, 0, numRead);
		System.out.println(new String(dataCopy));
		outBuffer = ByteBuffer.wrap(dataCopy);
		state = SENDING;
		// 设置Key的interest set为监听该连接上的write事件
		key.interestOps(SelectionKey.OP_WRITE);
	}

	@Override
	public void run() {
		try {
			if (state == READING) {
				read();
			} else if (state == SENDING) {
				write();
			}

		} catch (IOException e) {
			e.printStackTrace();
		}

	}
}

 

客户端代码如下:

package sampleNio;

import java.io.IOException;
import java.net.InetAddress;
import java.net.InetSocketAddress;
import java.nio.ByteBuffer;
import java.nio.channels.SelectionKey;
import java.nio.channels.Selector;
import java.nio.channels.SocketChannel;
import java.nio.channels.spi.SelectorProvider;
import java.util.Iterator;

/**
 * @author jason
 * 
 */
public class NioClient implements Runnable {
	private InetAddress hostAddress;
	private int port;
	private Selector selector;
	private ByteBuffer readBuffer = ByteBuffer.allocate(8192);
	private ByteBuffer outBuffer = ByteBuffer.wrap("nice to meet you"
			.getBytes());

	public NioClient(InetAddress hostAddress, int port) throws IOException {
		this.hostAddress = hostAddress;
		this.port = port;
		initSelector();
	}

	public static void main(String[] args) {
		try {
			NioClient client = new NioClient(
					InetAddress.getByName("localhost"), 9090);
			new Thread(client).start();

		} catch (IOException e) {
			e.printStackTrace();
		}
	}

	@Override
	public void run() {
		while (true) {
			try {
				selector.select();

				Iterator<?> selectedKeys = selector.selectedKeys().iterator();
				while (selectedKeys.hasNext()) {
					SelectionKey key = (SelectionKey) selectedKeys.next();
					selectedKeys.remove();

					if (!key.isValid()) {
						continue;
					}

					if (key.isConnectable()) {
						finishConnection(key);
					} else if (key.isReadable()) {
						read(key);
					} else if (key.isWritable()) {
						write(key);
					}

				}

			} catch (Exception e) {
				e.printStackTrace();
			}
		}

	}

	private void initSelector() throws IOException {
		// 创建一个selector
		selector = SelectorProvider.provider().openSelector();
		// 打开SocketChannel
		SocketChannel socketChannel = SocketChannel.open();
		// 设置为非阻塞
		socketChannel.configureBlocking(false);
		// 连接指定IP和端口的地址
		socketChannel
				.connect(new InetSocketAddress(this.hostAddress, this.port));
		// 用selector注册套接字,并返回对应的SelectionKey,同时设置Key的interest set为监听服务端已建立连接的事件
		socketChannel.register(selector, SelectionKey.OP_CONNECT);
	}

	private void finishConnection(SelectionKey key) throws IOException {
		SocketChannel socketChannel = (SocketChannel) key.channel();
		try {
			// 判断连接是否建立成功,不成功会抛异常
			socketChannel.finishConnect();
		} catch (IOException e) {
			key.cancel();
			return;
		}
		// 设置Key的interest set为OP_WRITE事件
		key.interestOps(SelectionKey.OP_WRITE);
	}

	/**
	 * 处理read
	 * 
	 * @param key
	 * @throws IOException
	 */
	private void read(SelectionKey key) throws IOException {
		SocketChannel socketChannel = (SocketChannel) key.channel();
		readBuffer.clear();
		int numRead;
		try {
			numRead = socketChannel.read(readBuffer);
		} catch (Exception e) {
			key.cancel();
			socketChannel.close();
			return;
		}
		if (numRead == 1) {
			System.out.println("close connection");
			socketChannel.close();
			key.cancel();
			return;
		}
		// 处理响应
		handleResponse(socketChannel, readBuffer.array(), numRead);
	}

	/**
	 * 处理响应
	 * 
	 * @param socketChannel
	 * @param data
	 * @param numRead
	 * @throws IOException
	 */
	private void handleResponse(SocketChannel socketChannel, byte[] data,
			int numRead) throws IOException {
		byte[] rspData = new byte[numRead];
		System.arraycopy(data, 0, rspData, 0, numRead);
		System.out.println(new String(rspData));
		socketChannel.close();
		socketChannel.keyFor(selector).cancel();
	}

	/**
	 * 处理write
	 * 
	 * @param key
	 * @throws IOException
	 */
	private void write(SelectionKey key) throws IOException {
		SocketChannel socketChannel = (SocketChannel) key.channel();
		socketChannel.write(outBuffer);
		if (outBuffer.remaining() > 0) {
			return;
		}
		// 设置Key的interest set为OP_READ事件
		key.interestOps(SelectionKey.OP_READ);
	}

}

 

4、 Reactor 的其他实现方式

 

单线程版本的 Reactor 最大的优势是:不需要做并发控制,简化了实现。缺点是不能充分利用多核 CPU的优势,因为只有一个线程,该线程需要执行所有的操作: accept read decode compute encode send,而其中的 decode compute encode如果很耗时,则该线程就不能及时的响应其他客户端的请求。

 


 

 

为了解决该问题,可以采用另外两种版本:

 


 

 

4.1 Worker threads

 

Reactor所在的线程只需要专心的响应客户端的请求: accept read send。对数据的具体处理过程则交给另外的线程池。这样可以提高服务端对客户端的响应速度,但同时增加了复杂度,也没有充分利用到多核的优势,因为 reactor只有一个,譬如同一时刻只能 read一个客户端的请求数据。

4.2Multiple reactor threads

 

采用多个 reactor ,每个 reactor 都在自己单独的线程里执行。如果是多核,则可以同时响应多个客户端的请求。( Netty 采用的是类似这种方式,boss线程池就是多个mainReactor,worker线程池就是多个subReactor)

 

 


 

 

5、总结

本文分析了基于 NIO Reactor模式的网络服务器设计方案,在后续的 blog中将结合 Netty进一步分析高性能网络服务器的设计。

 

 本文为原创,转载请注明出处

  • 大小: 46.5 KB
  • 大小: 15.7 KB
  • 大小: 19.3 KB
  • 大小: 57.7 KB
  • 大小: 60.6 KB
分享到:
评论
4 楼 天然呆的爱死你了呢 2018-11-12  
herman_liu76 写道
3)      Handler执行 task,读取客户端的请求数据(此处是非阻塞读,即如果当前操作会导致当前线程阻塞,当前操作会立即返回,并重复执行第 2、 3步,直到客户端的请求读取完毕。)

请教:后面的代码 read中没看明白有重复执行2/3的过程?

同样有点不理解
3 楼 天然呆的爱死你了呢 2018-11-12  
很棒,顶!
2 楼 herman_liu76 2017-03-07  
3)      Handler执行 task,读取客户端的请求数据(此处是非阻塞读,即如果当前操作会导致当前线程阻塞,当前操作会立即返回,并重复执行第 2、 3步,直到客户端的请求读取完毕。)

请教:后面的代码 read中没看明白有重复执行2/3的过程?
1 楼 rentaoshu 2013-12-02  

好文

相关推荐

    级联H桥SVG无功补偿系统在不平衡电网中的三层控制策略:电压电流双闭环PI控制、相间与相内电压均衡管理,级联H桥SVG无功补偿系统在不平衡电网中的三层控制策略:电压电流双闭环PI控制、相间与相内电压均

    级联H桥SVG无功补偿系统在不平衡电网中的三层控制策略:电压电流双闭环PI控制、相间与相内电压均衡管理,级联H桥SVG无功补偿系统在不平衡电网中的三层控制策略:电压电流双闭环PI控制、相间与相内电压均衡管理,不平衡电网下的svg无功补偿,级联H桥svg无功补偿statcom,采用三层控制策略。 (1)第一层采用电压电流双闭环pi控制,电压电流正负序分离,电压外环通过产生基波正序有功电流三相所有H桥模块直流侧平均电压恒定,电流内环采用前馈解耦控制; (2)第二层相间电压均衡控制,注入零序电压,控制通过注入零序电压维持相间电压平衡; (3)第三层相内电压均衡控制,使其所有子模块吸收的有功功率与其损耗补,从而保证所有H桥子模块直流侧电压值等于给定值。 有参考资料。 639,核心关键词: 1. 不平衡电网下的SVG无功补偿 2. 级联H桥SVG无功补偿STATCOM 3. 三层控制策略 4. 电压电流双闭环PI控制 5. 电压电流正负序分离 6. 直流侧平均电压恒定 7. 前馈解耦控制 8. 相间电压均衡控制 9. 零序电压注入 10. 相内电压均衡控制 以上十个关键词用分号分隔的格式为:不

    GTX 1080 PCB图纸

    GTX 1080 PCB图纸,内含图纸查看软件

    深度优化与应用:提升DeepSeek润色指令的有效性和灵活性指南

    内容概要:本文档详细介绍了利用 DeepSeek 进行文本润色和问答交互时提高效果的方法和技巧,涵盖了从明确需求、提供适当上下文到尝试开放式问题以及多轮对话的十个要点。每一部分内容都提供了具体的示范案例,如指定回答格式、分步骤提问等具体实例,旨在指导用户更好地理解和运用 DeepSeek 提升工作效率和交流质量。同时文中还强调了根据不同应用场景调整提示词语气和风格的重要性和方法。 适用人群:适用于希望通过优化提问技巧以获得高质量反馈的企业员工、科研人员以及一般公众。 使用场景及目标:本文针对所有期望提高 DeepSeek 使用效率的人群,帮助他们在日常工作中快速获取精准的答案或信息,特别是在撰写报告、研究材料准备和技术咨询等方面。此外还鼓励用户通过不断尝试不同形式的问题表述来进行有效沟通。 其他说明:该文档不仅关注实际操作指引,同样重视用户思维模式转变——由简单索取答案向引导 AI 辅助创造性解决问题的方向发展。

    基于FPGA与W5500实现的TCP网络通信测试平台开发-Zynq扩展口Verilog编程实践,基于FPGA与W5500芯片的TCP网络通信测试及多路Socket实现基于zynq开发平台和Vivad

    基于FPGA与W5500实现的TCP网络通信测试平台开发——Zynq扩展口Verilog编程实践,基于FPGA与W5500芯片的TCP网络通信测试及多路Socket实现基于zynq开发平台和Vivado 2019软件的扩展开发,基于FPGA和W5500的TCP网络通信 测试平台 zynq扩展口开发 软件平台 vivado2019.2,纯Verilog可移植 测试环境 压力测试 cmd命令下ping电脑ip,同时采用上位机进行10ms发包回环测试,不丢包(内部数据回环,需要时间处理) 目前实现单socket功能,多路可支持 ,基于FPGA; W5500; TCP网络通信; Zynq扩展口开发; 纯Verilog可移植; 测试平台; 压力测试; 10ms发包回环测试; 单socket功能; 多路支持。,基于FPGA与W5500的Zynq扩展口TCP通信测试:可移植Verilog实现的高效网络通信

    Labview液压比例阀伺服阀试验台多功能程序:PLC通讯、液压动画模拟、手动控制与调试、传感器标定、报警及记录、自动实验、数据处理与查询存储,报表生成与打印一体化解决方案 ,Labview液压比例阀

    Labview液压比例阀伺服阀试验台多功能程序:PLC通讯、液压动画模拟、手动控制与调试、传感器标定、报警及记录、自动实验、数据处理与查询存储,报表生成与打印一体化解决方案。,Labview液压比例阀伺服阀试验台多功能程序:PLC通讯、液压动画模拟、手动控制与调试、传感器标定、报警管理及实验自动化,labview液压比例阀伺服阀试验台程序:功能包括,同PLC通讯程序,液压动画,手动控制及调试,传感器标定,报警设置及报警记录,自动实验,数据处理曲线处理,数据库存储及查询,报表自动生成及打印,扫码枪扫码及信号录入等~ ,核心关键词:PLC通讯; 液压动画; 手动控制及调试; 传感器标定; 报警设置及记录; 自动实验; 数据处理及曲线处理; 数据库存储及查询; 报表生成及打印; 扫码枪扫码。,Labview驱动的智能液压阀测试系统:多功能控制与数据处理

    华为、腾讯、万科员工职业发展体系建设与实践.pptx

    华为、腾讯、万科员工职业发展体系建设与实践.pptx

    基于遗传算法的柔性车间调度优化 附Matlab代码.rar

    1.版本:matlab2014/2019a/2024a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。

    电网不对称故障下VSG峰值电流限制的柔性控制策略:实现电流平衡与功率容量的优化利用,电网不对称故障下VSG峰值电流限制的柔性控制策略:兼顾平衡电流与功率控制切换的动态管理,电网不对称故障下VSG峰值电

    电网不对称故障下VSG峰值电流限制的柔性控制策略:实现电流平衡与功率容量的优化利用,电网不对称故障下VSG峰值电流限制的柔性控制策略:兼顾平衡电流与功率控制切换的动态管理,电网不对称故障下VSG峰值电流限制的柔性不平衡控制(文章完全复现)。 提出一种在不平衡运行条件下具有峰值电流限制的可变不平衡电流控制方法,可灵活地满足不同操作需求,包括电流平衡、有功或无功恒定运行(即电流控制、有功控制或无功控制之间的相互切),注入电流保持在安全值内,以更好的利用VSG功率容量。 关键词:VSG、平衡电流控制、有功功率控制、无功功率控制。 ,VSG; 峰值电流限制; 柔性不平衡控制; 电流平衡控制; 有功功率控制; 无功功率控制。,VSG柔性控制:在电网不对称故障下的峰值电流限制与平衡管理

    libpinyin-tools-0.9.93-4.el7.x64-86.rpm.tar.gz

    1、文件内容:libpinyin-tools-0.9.93-4.el7.rpm以及相关依赖 2、文件形式:tar.gz压缩包 3、安装指令: #Step1、解压 tar -zxvf /mnt/data/output/libpinyin-tools-0.9.93-4.el7.tar.gz #Step2、进入解压后的目录,执行安装 sudo rpm -ivh *.rpm 4、更多资源/技术支持:公众号禅静编程坊

    机器学习(预测模型):动漫《龙珠》相关的数据集

    数据集是一个以经典动漫《龙珠》为主题的多维度数据集,广泛应用于数据分析、机器学习和图像识别等领域。该数据集由多个来源整合而成,涵盖了角色信息、战斗力、剧情片段、台词以及角色图像等多个方面。数据集的核心内容包括: 角色信息:包含《龙珠》系列中的主要角色及其属性,如名称、种族、所属系列(如《龙珠》《龙珠Z》《龙珠超》等)、战斗力等级等。 图像数据:提供角色的图像资源,可用于图像分类和角色识别任务。这些图像来自动画剧集、漫画和相关衍生作品。 剧情与台词:部分数据集还包含角色在不同故事中的台词和剧情片段,可用于文本分析和自然语言处理任务。 战斗数据:记录角色在不同剧情中的战斗力变化和战斗历史,为研究角色成长和剧情发展提供支持。 数据集特点 多样性:数据集整合了角色、图像、文本等多种类型的数据,适用于多种研究场景。 深度:不仅包含角色的基本信息,还涵盖了角色的成长历程、技能描述和与其他角色的互动关系。 实用性:支持多种编程语言(如Python、R)的数据处理和分析,提供了详细的文档和示例代码。

    基于protues仿真的多功公交站播报系统设计(仿真图、源代码)

    基于protues仿真的多功公交站播报系统设计(仿真图、源代码) 该设计为基于protues仿真的多功公交站播报系统,实现温度显示、时间显示、和系统公交站播报功能; 具体功能如下: 1、系统使用51单片机为核心设计; 2、时钟芯片进行时间和日期显示; 3、温度传感器进行温度读取; 4、LCD12864液晶屏进行相关显示; 5、按键设置调节时间; 6、按键设置报站; 7、仿真图、源代码; 操作说明: 1、下行控制报站:首先按下(下行设置按键),(下行指示灯)亮,然后按下(手动播报)按键控制播报下一站; 2、上行控制报站:首先按上(上行设置按键),(上行指示灯)亮,然后按下(手动播报)按键控制播报下一站; 3、按下关闭播报按键,则关闭播报功能和清除显示

    基于微信小程序的琴房管理系统的设计与实现.zip

    采用Java后台技术和MySQL数据库,在前台界面为提升用户体验,使用Jquery、Ajax、CSS等技术进行布局。 系统包括两类用户:学生、管理员。 学生用户 学生用户只要实现了前台信息的查看,打开首页,查看网站介绍、琴房信息、在线留言、轮播图信息公告等,通过点击首页的菜单跳转到对应的功能页面菜单,包括网站首页、琴房信息、注册登录、个人中心、后台登录。 学生用户通过账户账号登录,登录后具有所有的操作权限,如果没有登录,不能在线预约。学生用户退出系统将注销个人的登录信息。 管理员通过后台的登录页面,选择管理员权限后进行登录,管理员的权限包括轮播公告管理、老师学生信息管理和信息审核管理,管理员管理后点击退出,注销登录信息。 管理员用户具有在线交流的管理,琴房信息管理、琴房预约管理。 在线交流是对前台用户留言内容进行管理,删除留言信息,查看留言信息。

    界面GUI设计MATLAB教室人数统计.zip

    MATLAB可以用于开发人脸识别考勤系统。下面是一个简单的示例流程: 1. 数据采集:首先收集员工的人脸图像作为训练数据集。可以要求员工提供多张照片以获得更好的训练效果。 2. 图像预处理:使用MATLAB的图像处理工具对采集到的人脸图像进行预处理,例如灰度化、裁剪、缩放等操作。 3. 特征提取:利用MATLAB的人脸识别工具包,如Face Recognition Toolbox,对处理后的图像提取人脸特征,常用的方法包括主成分分析(PCA)和线性判别分析(LDA)等。 4. 训练模型:使用已提取的人脸特征数据集训练人脸识别模型,可以选择支持向量机(SVM)、卷积神经网络(CNN)等算法。 5. 考勤系统:在员工打卡时,将摄像头捕获的人脸图像输入到训练好的模型中进行识别,匹配员工信息并记录考勤数据。 6. 结果反馈:根据识别结果,可以自动生成考勤报表或者实时显示员工打卡情况。 以上只是一个简单的步骤,实际开发过程中需根据具体需求和系统规模进行定制和优化。MATLAB提供了丰富的图像处理和机器学习工具,是开发人脸识别考勤系统的一个很好选择。

    hjbvbnvhjhjg

    hjbvbnvhjhjg

    HCIP、软考相关学习PPT

    HCIP、软考相关学习PPT提供下载

    绿豆BOX UI8版:反编译版六个全新UI+最新后台直播管理源码

    绿豆BOX UI8版:反编译版六个全新UI+最新后台直播管理源码 最新绿豆BOX反编译版六个UI全新绿豆盒子UI8版本 最新后台支持直播管理 作为UI6的升级版,UI8不仅修复了前一版本中存在的一些BUG,还提供了6套不同的UI界面供用户选择,该版本有以下特色功能: 在线管理TVBOX解析 在线自定义TVBOX 首页布局批量添加会员信息 并支持导出批量生成卡密 并支持导出直播列表管理功能

    vue3的一些语法以及知识点

    vue3的一些语法以及知识点

    西门子大型Fanuc机器人汽车焊装自动生产线程序经典解析:PLC博图编程与MES系统通讯实战指南,西门子PLC博图汽车焊装自动生产线FANUC机器人程序经典结构解析与MES系统通讯,西门子1500 大

    西门子大型Fanuc机器人汽车焊装自动生产线程序经典解析:PLC博图编程与MES系统通讯实战指南,西门子PLC博图汽车焊装自动生产线FANUC机器人程序经典结构解析与MES系统通讯,西门子1500 大型程序fanuc 机器人汽车焊装自动生产线程序 MES 系统通讯 大型程序fanuc机器人汽车焊装自动生产线程序程序经典结构清晰,SCL算法堆栈,梯形图和 SCL混编使用博图 V14以上版本打开 包括: 1、 PLC 博图程序 2 触摸屏程序 ,西门子1500; 大型程序; fanuc机器人; 汽车焊装自动生产线; MES系统通讯; SCL算法; 梯形图; SCL混编; 博图V14以上版本。,西门子博图大型程序:汽车焊装自动生产线MES系统通讯与机器人控制

    DeepSeek:从入门到精通

    DeepSeek:从入门到精通

    计及信息间隙决策与多能转换的综合能源系统优化调度模型:实现碳经济最大化与源荷不确定性考量,基于信息间隙决策与多能转换的综合能源系统优化调度模型:源荷不确定性下的高效碳经济调度策略,计及信息间隙决策及多

    计及信息间隙决策与多能转换的综合能源系统优化调度模型:实现碳经济最大化与源荷不确定性考量,基于信息间隙决策与多能转换的综合能源系统优化调度模型:源荷不确定性下的高效碳经济调度策略,计及信息间隙决策及多能转的综合能源系统优化调度 本代码构建了含风电、光伏、光热发电系统、燃气轮机、燃气锅炉、电锅炉、储气、储电、储碳、碳捕集装置的综合能源系统优化调度模型,并考虑P2G装置与碳捕集装置联合运行,从而实现碳经济的最大化,最重要的是本文引入了信息间隙决策理论考虑了源荷的不确定性(本代码的重点)与店铺的47代码形成鲜明的对比,注意擦亮眼睛,认准原创,该代码非常适合修改创新,,提供相关的模型资料 ,计及信息间隙决策; 综合能源系统; 优化调度; 多能转换; 碳经济最大化; 风电; 光伏; 燃气轮机; 储气; 储电; 储碳; 碳捕集装置; P2G装置联合运行; 模型资料,综合能源系统优化调度模型:基于信息间隙决策和多能转换的原创方案

Global site tag (gtag.js) - Google Analytics