- 浏览: 88548 次
文章分类
最新评论
-
cuisuqiang:
smallbee 写道信息: Initializing Coy ...
apache tomcat负载均衡实验记录 -
hwy1782:
数据库分库分表使用的是TDDL
淘宝网技术分析(整理中) -
smallbee:
信息: Initializing Coyote HTTP/1. ...
apache tomcat负载均衡实验记录 -
likebin:
受用,值得学习
新浪微博架构分析
http://www.iteye.com/topic/1017961
准备工作
Tomcat7 http://tomcat.apache.org/download-70.cgi
apache httpd server 2.2: http://httpd.apache.org/download.cgi
apache tomcat connector: http://archive.apache.org/dist/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.31/
相关文档:
web server how to:
http://tomcat.apache.org/connectors-doc/webserver_howto/apache.html
安装路径:
httpd: D:\Server\Apache httpd2_2
tomcat D:\Server\tomcat7-1 tomcat7-2 tomcat7-3
JK D:\Server\Apache httpd2_2\modules\mod_jk-1.2.31-httpd-2.2.3.so
step 1: 添加并配置JK
D:\Server\Apache httpd2_2\conf\httpd.conf文件最后加上,意思是把这个配置加载进来
include conf\mod_jk.conf
新建mod_jk.conf文件,内容如下:
LoadModule jk_module modules/mod_jk-1.2.31-httpd-2.2.3.so JkWorkersFile conf/workers.properties #指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器名 JkMount /*.jsp controller
Step 2: 配置worker
新建并编辑workers.properties文件,内容如下
#server worker.list = controller #========tomcat1======== worker.tomcat1.port=11009 worker.tomcat1.host=localhost worker.tomcat1.type=ajp13 worker.tomcat1.lbfactor = 1 #========tomcat2======== worker.tomcat2.port=12009 worker.tomcat2.host=localhost worker.tomcat2.type=ajp13 worker.tomcat2.lbfactor = 1 #========tomcat3======== worker.tomcat3.port=13009 worker.tomcat3.host=192.168.0.80 //在我的虚拟机中的,可以算远程的吧 worker.tomcat3.type=ajp13 worker.tomcat3.lbfactor = 1 #========controller,负载均衡控制器======== worker.controller.type=lb worker.controller.balanced_workers=tomcat1,tomcat2,tomcat3 worker.controller.sticky_session=false worker.controller.sticky_session_force=1 #worker.controller.sticky_session=1
如果三个tomcat不在同一台机器上,那么下面改端口的事情就可以省很多力气,不过因为要单机做负载均衡,所以要更改三个tomcat的8005,8080的端口,确保都不一样,不然tomcat是没办法同时启动三个的。
测试的时候我三个tomcat都放在本地,因为要同时启动三个tomcat,所以需要更改三个tomcat中的Connector端口号,将三个tomcat的的protocol="HTTP/1.1" 的connector的port改为10080,11080,12080。(原来是8080)
同时讲原来8005的端口分别改成10005,11005,12005(这个是关闭tomcat的端口号)
tomcat7-1
<Connector port="10080" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" />
tomcat7-2
<Connector port="11080" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" />
tomcat7-3
<Connector port="12080" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" />
除了更改server.xml中 原来的8080的端口(protocol="HTTP/1.1" 的端口号)
还需要配置AJP13的端口号,同时打开默认注释掉的<Cluster>标签,对应的<Engine>的jvmRoute改成workers.property里面对应的名字,配置如下(删除了注释)
tomcat7-1
<Connector port="11009" protocol="AJP/1.3" redirectPort="8443" /> <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat1"> <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
tomcat7-2
<Connector port="12009" protocol="AJP/1.3" redirectPort="8443" /> <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat2"> <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
tomcat7-3
<Connector port="13009" protocol="AJP/1.3" redirectPort="8443" /> <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat3"> <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
OK,这时候可以成功启动三个tomcat7了,当tomcat7-2启动后,tomcat7-1会打印出replication的信息
类似于
2011-9-20 14:12:18 org.apache.catalina.ha.tcp.SimpleTcpCluster memberAdded 信息: Replication member added:org.apache.catalina.tribes.membership.MemberImpl[tcp://{172, 16, 10, 96}:4001,{172, 16, 10, 96},4001, alive=1000, securePort=-1, UDP Port=-1, id={109 112 -14 -8 -44 98 79 85 -89 -48 -33 -127 -47 -30 26 -75 }, payload={}, command={}, domain={}, ]
<%@ page contentType="text/html; charset=GBK"%> <%@ page import="java.util.*"%> <html> <head> <title>Cluster App Test</title> </head> <body> Server Info: <% out.println(request.getLocalAddr() + " : " + request.getLocalPort() + "<br>"); %> <% out.println("<br> ID " + session.getId() + "<br>"); // 如果有新的 Session 属性设置 String dataName = request.getParameter("dataName"); if (dataName != null && dataName.length() > 0) { String dataValue = request.getParameter("dataValue"); session.setAttribute(dataName, dataValue); } out.println("<b>Session 列表</b><br>"); System.out.println("============================"); Enumeration e = session.getAttributeNames(); while (e.hasMoreElements()) { String name = (String) e.nextElement(); String value = session.getAttribute(name).toString(); out.println(name + " = " + value + "<br>"); System.out.println(name + " = " + value); } %> <form action="testlb.jsp" method="POST"> 名称: <input type=text size=20 name="dataName"> <br> 值: <input type=text size=20 name="dataValue"> <br> <input type=submit> </form> </body> </html>
(以下为原文摘抄,我真的比较lazy)
以上的测试说明,集群中的session已经共享,每个集群对于同一访问均有相同的session,而且session中存储的变量也复制了。
节点插拔测试
插拔意思是应该保证当运行的集群中某节点中关闭或者启动时,集群正常工作并且节点能够正常工作。
下面描述测试过程了,贴图太占地方了。
关闭Tomcat2,刷新页面,则不断访问Tocmat1和Tomcat3,再关闭Tomcat1后,则只访问一个Tomcat3,说明节点关闭时运行正常。
如果重启Tomcat2,无论怎么刷新,始终访问Tomcat3,难道Apache不能将请求转发给中途启动的Tomcat2?。。。这时利用另外台机器访问页面,发现Tomcat2正常,然后在刷本地页面,又可以访问Tomcat2了。
从上面可以看出Apache的负载均衡时的算法了,对于每个新来的session,Apache按照节点配置中的lbfactor比重选择访问节点,如果某节点node1不能访问,则寻找下一可访问节点,并且将此node1就在该访问session的访问黑名单中,以后该session的访问直接不考虑node1,即使node1又可以访问了。而新来的session是无黑名单的,如果新的session能够访问到node1了,则会将node1在其他所有session访问的黑名单删除,这样其他session就又能访问node1节点了。以上只是个人经过测试后的猜想。
经过以上测试,说明Tomcat集群和负载均衡已经实现了。
关于集群我还有些疑问,所以又测试了下,直接把结论写出来:
1.集群下的相同的应用可以名称不同(好像没必要啊),只要配置server.xml中host下的context具有相同的path即可。
2. 如果应用名称可以不同,那么应用下内容是否可以不同呢(这里考虑将不同应用通过集群看起来是一个应用,并且共享session),然后集群下不同应用映射为相同的访问path,具有相同的路径则负载,如果某路径只某个应用具有,则一直访问该应用。可现实很骨干啊,答案是否定的,至少我以上的配置不能实现。如果访问只有某应用具有的特别路径,那么只有负载到该应用才可以访问,否则直接路径未找到的错误页面了。
如果您看过网上其他Apache+Tomcat的集群配置,您可能有的疑问?
1.网上大部分的文章配置2个tocmat的集群,有的将workers.properties下的worker.controller.sticky_session=1,
然后tomcat1中的server.xml中的jvmRoute设置为tomcat2,将tomcat2中的jvmRoute设置为tocmat1,当然我这样设置
也成功了,但是如果3个或者更多tocmat呢,怎么设置每个tomcat的jvmRoute,我不会所以才考虑现在的配置
2.server.xml中的Cluster配置问题,网上大部分都是使用BackupManager方式,即Cluster下又粘贴了一堆配置。其实
只要将其中注释掉的<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>去掉注释就完成session的集群
复制了。只是这俩种复制采用的方式不同而已。http://tomcat.apache.org/tomcat-6.0-doc/cluster-howto.html,
这页面已经说的挺清楚了,集群的session复制默认是DeltaManager,是all to all的复制,意思是将集群下1个tomcat应用下的session
对所有的集群中的节点进行复制,即使那个节点没有发布应用。显然是不好的方式,但这在小规模的集群下并没神马问题。
而采用BackupManager,就是众多网上配置那样,对于需要复制的节点设置BackupManager自然也没问题,
但是它的性能并没有DeltaManager 好使“ Downside of the BackupManager: not quite as battle tested as the delta manager”。
因此,具体怎么设置就看大家了,通常说如果不是大规模集群,就默认就好了。反正我自己翻译的就是这个意思了,希望没有误导大家。
最后一个比较全的关于session 同步使用jdbc方式的帖子
http://www.datadisk.co.uk/html_docs/java_app/tomcat6/tomcat6_clustering.htm
评论
2012-8-23 16:09:29 org.apache.catalina.startup.Catalina load
信息: Initialization processed in 482 ms
2012-8-23 16:09:29 org.apache.catalina.core.StandardService start
信息: Starting service Catalina
2012-8-23 16:09:29 org.apache.catalina.core.StandardEngine start
信息: Starting Servlet Engine: Apache Tomcat/6.0.20
2012-8-23 16:09:29 org.apache.catalina.ha.tcp.SimpleTcpCluster start
信息: Cluster is about to start
2012-8-23 16:09:29 org.apache.catalina.tribes.transport.ReceiverBase bind
信息: Receiver Server Socket bound to:/99.6.150.31:4001
2012-8-23 16:09:29 org.apache.catalina.tribes.membership.McastServiceImpl setupSocket
信息: Setting cluster mcast soTimeout to 500
2012-8-23 16:09:29 org.apache.catalina.tribes.membership.McastServiceImpl waitForMembers
信息: Sleeping for 1000 milliseconds to establish cluster membership, start level:4
2012-8-23 16:09:30 org.apache.catalina.tribes.membership.McastServiceImpl waitForMembers
信息: Done sleeping, membership established, start level:4
2012-8-23 16:09:30 org.apache.catalina.ha.tcp.SimpleTcpCluster start
严重: Unable to start cluster.
org.apache.catalina.tribes.ChannelException: java.net.ConnectException: Connection refused: Datagram send failed; No faulty members identified.
at org.apache.catalina.tribes.group.ChannelCoordinator.internalStart(ChannelCoordinator.java:169)
at org.apache.catalina.tribes.group.ChannelCoordinator.start(ChannelCoordinator.java:97)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.interceptors.MessageDispatchInterceptor.start(MessageDispatchInterceptor.java:147)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.GroupChannel.start(GroupChannel.java:407)
at org.apache.catalina.ha.tcp.SimpleTcpCluster.start(SimpleTcpCluster.java:671)
at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1035)
at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)
at org.apache.catalina.core.StandardService.start(StandardService.java:516)
at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)
at org.apache.catalina.startup.Catalina.start(Catalina.java:583)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
Caused by: java.net.ConnectException: Connection refused: Datagram send failed
at java.net.PlainDatagramSocketImpl.send(Native Method)
at java.net.DatagramSocket.send(DatagramSocket.java:612)
at org.apache.catalina.tribes.membership.McastServiceImpl.send(McastServiceImpl.java:385)
at org.apache.catalina.tribes.membership.McastServiceImpl.start(McastServiceImpl.java:244)
at org.apache.catalina.tribes.membership.McastService.start(McastService.java:318)
at org.apache.catalina.tribes.group.ChannelCoordinator.internalStart(ChannelCoordinator.java:158)
... 18 more
2012-8-23 16:09:30 org.apache.catalina.startup.Catalina start
严重: Catalina.start:
LifecycleException: org.apache.catalina.tribes.ChannelException: java.net.ConnectException: Connection refused: Datagram send failed; No faulty members identified.
at org.apache.catalina.ha.tcp.SimpleTcpCluster.start(SimpleTcpCluster.java:678)
at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1035)
at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)
at org.apache.catalina.core.StandardService.start(StandardService.java:516)
at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)
at org.apache.catalina.startup.Catalina.start(Catalina.java:583)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
2012-8-23 16:09:30 org.apache.catalina.startup.Catalina start
信息: Server startup in 1210 ms
按照您的配置,报错如上,请问遇到过么?
hostname和hosts配置文件不一致:http://www.javacui.com/service/136.html
2012-8-23 16:09:29 org.apache.catalina.startup.Catalina load
信息: Initialization processed in 482 ms
2012-8-23 16:09:29 org.apache.catalina.core.StandardService start
信息: Starting service Catalina
2012-8-23 16:09:29 org.apache.catalina.core.StandardEngine start
信息: Starting Servlet Engine: Apache Tomcat/6.0.20
2012-8-23 16:09:29 org.apache.catalina.ha.tcp.SimpleTcpCluster start
信息: Cluster is about to start
2012-8-23 16:09:29 org.apache.catalina.tribes.transport.ReceiverBase bind
信息: Receiver Server Socket bound to:/99.6.150.31:4001
2012-8-23 16:09:29 org.apache.catalina.tribes.membership.McastServiceImpl setupSocket
信息: Setting cluster mcast soTimeout to 500
2012-8-23 16:09:29 org.apache.catalina.tribes.membership.McastServiceImpl waitForMembers
信息: Sleeping for 1000 milliseconds to establish cluster membership, start level:4
2012-8-23 16:09:30 org.apache.catalina.tribes.membership.McastServiceImpl waitForMembers
信息: Done sleeping, membership established, start level:4
2012-8-23 16:09:30 org.apache.catalina.ha.tcp.SimpleTcpCluster start
严重: Unable to start cluster.
org.apache.catalina.tribes.ChannelException: java.net.ConnectException: Connection refused: Datagram send failed; No faulty members identified.
at org.apache.catalina.tribes.group.ChannelCoordinator.internalStart(ChannelCoordinator.java:169)
at org.apache.catalina.tribes.group.ChannelCoordinator.start(ChannelCoordinator.java:97)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.interceptors.MessageDispatchInterceptor.start(MessageDispatchInterceptor.java:147)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.GroupChannel.start(GroupChannel.java:407)
at org.apache.catalina.ha.tcp.SimpleTcpCluster.start(SimpleTcpCluster.java:671)
at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1035)
at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)
at org.apache.catalina.core.StandardService.start(StandardService.java:516)
at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)
at org.apache.catalina.startup.Catalina.start(Catalina.java:583)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
Caused by: java.net.ConnectException: Connection refused: Datagram send failed
at java.net.PlainDatagramSocketImpl.send(Native Method)
at java.net.DatagramSocket.send(DatagramSocket.java:612)
at org.apache.catalina.tribes.membership.McastServiceImpl.send(McastServiceImpl.java:385)
at org.apache.catalina.tribes.membership.McastServiceImpl.start(McastServiceImpl.java:244)
at org.apache.catalina.tribes.membership.McastService.start(McastService.java:318)
at org.apache.catalina.tribes.group.ChannelCoordinator.internalStart(ChannelCoordinator.java:158)
... 18 more
2012-8-23 16:09:30 org.apache.catalina.startup.Catalina start
严重: Catalina.start:
LifecycleException: org.apache.catalina.tribes.ChannelException: java.net.ConnectException: Connection refused: Datagram send failed; No faulty members identified.
at org.apache.catalina.ha.tcp.SimpleTcpCluster.start(SimpleTcpCluster.java:678)
at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1035)
at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)
at org.apache.catalina.core.StandardService.start(StandardService.java:516)
at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)
at org.apache.catalina.startup.Catalina.start(Catalina.java:583)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
2012-8-23 16:09:30 org.apache.catalina.startup.Catalina start
信息: Server startup in 1210 ms
按照您的配置,报错如上,请问遇到过么?
发表评论
-
海量数据处理专题(转)
2011-09-21 16:43 908原文: http://bbs.xjtu. ... -
java最小根堆实现
2011-09-21 00:14 18811.堆结点 Java代码 package ... -
源代码研读安排
2011-09-13 18:46 677Struts2拦截器,dispatcher spring i ... -
Struts2上传文件示例
2011-09-04 19:34 860Struts2上传文件示例 ... -
性能调优学习笔记(转载)
2011-09-02 13:06 7551、性能调优的步骤 ... -
(转)Apache common-pool, common-dbcp源码解读与对象池原理剖析
2011-08-15 10:46 1107原文地址: http://macroch ... -
linux方面最近要看的书
2011-08-04 21:06 869鸟哥的Linux私房菜 http://linux-vbird ... -
Java内存泄露的理解与解决
2011-07-24 23:56 764转载请注明出处:http:// ... -
23个经典JDK设计模式
2011-07-21 17:09 847酷壳版主陈皓近日发表博文《JDK里的设计模式》,文中他列出 ...
相关推荐
【Tomcat负载均衡配置】 Tomcat负载均衡是一种技术,它旨在通过将来自多个用户的请求分发到多个服务器来平衡Web应用程序服务器的负载。这有助于提高服务的可用性和响应时间,防止单点故障,并确保在高流量期间仍能...
然后,为了实现更高效的HTTP服务,可能需要**安装Apache**并与Tomcat进行**整合**,形成一个负载均衡的Web服务架构。最后,为了使JSP能够与数据库交互,需要**安装MySQL连接库**,如JDBC,以实现数据存取功能。 3. ...
同时,考虑到高可用性,可以考虑负载均衡和集群配置。 8. 测试与调试:开发过程中,单元测试、集成测试必不可少,确保代码质量。JUnit和Mockito等工具可以帮助进行自动化测试。 9. 持续集成/持续部署(CI/CD):使用...
部署时,系统可能运行在Tomcat或Jetty等应用服务器上,采用HTTPS协议保证通信安全,Nginx或Apache作为反向代理服务器,以实现负载均衡和静态资源的高效分发。 总的来说,"基于SSM+jsp实验中心管理系统源码数据库....
3. **负载均衡**:随着用户量的增长,可能需要配置负载均衡器(如Nginx或HAProxy)以分发请求,防止单点故障。 4. **扩展性**:J2EE平台允许通过模块化设计和分布式服务来实现水平扩展,以应对高并发场景。 5. **...
生产环境中可能还需要考虑负载均衡、集群配置、安全策略等问题。 总之,"Java实验室设备管理系统"是一个综合运用了Java技术栈、Web开发和数据库管理的复杂项目,涵盖了软件工程的多个方面,对于学习和理解企业级...
或者采用负载均衡,当用户量增大时,可以将请求分发到多个服务器,提高系统并发处理能力。 总的来说,航天客运订票系统是一个综合运用了数据库管理、Java编程、Web服务和安全策略的实例,展示了现代信息技术在解决...
9. **性能优化**:如数据库索引优化、缓存策略、负载均衡等,以提高系统的响应速度和并发处理能力。 10. **测试与部署**:进行单元测试、集成测试,确保每个功能都能正常工作,然后在Tomcat服务器上部署应用,对外...
14. **部署与运维**:系统部署在Web服务器上,如Tomcat或Apache,需要考虑负载均衡、性能监控、安全配置等问题。 综上所述,"Java开发--JSP+sql实验教学管理系统"是一个综合性的项目,涉及到Java Web开发的多个层面...
9. **部署和服务器**:项目可能部署在Tomcat或Jetty等Servlet容器上,使用Nginx或Apache作为反向代理和负载均衡。 通过这个项目,开发者能够深入理解SSM框架的整合与应用,掌握Web开发的基本流程,同时对数据库设计...
- 部署环境:Tomcat服务器,Nginx作为反向代理和负载均衡。 开发过程中,遵循敏捷开发原则,通过版本控制工具(如Git)协同开发,使用Maven或Gradle进行项目构建,通过单元测试确保代码质量,结合持续集成工具(如...
这可能涉及到缓存技术(如Redis)、负载均衡和数据库索引优化。 10. **测试与部署**:单元测试、集成测试和系统测试是确保代码质量的重要步骤。JUnit和Mockito是常用的Java测试框架。部署方面,Tomcat、Jetty等应用...
系统性能优化方面,可能涉及数据库查询优化、缓存策略、负载均衡等技术,以提升系统响应速度和并发处理能力。 以上就是基于Java开发的商品管理系统的主要技术构成和工作原理。对于初学者和开发者来说,这是一个很好...
2.10系统须支持负载均衡及双机热备。 2.11除系统所用到的硬件、数据库软件及操作系统的费用由招 标人承担以外,其它费用均由投标人承担。 2.12电子地图要求必须支持ArcGIS地图,同时支持目前免费的 主流地图,包括...